Nederlander Eelco Grimm onderzocht 4,2 miljoen albums (!) op luidheid

Met de komst van de CD en de algehele digitalisering begonnen mastering engineers in de 90-er jaren het geluidsignaal steeds meer te verhogen in de hoop dat hun CD luider zou klinken dan die van de concurrentie. Een volkomen zot idee. Met het boosten van het geluidsignaal is in principe niets mis, elke muzikant maakt weleens gebruik van een compressor en een limiter. Maar het signaal alleen maar boosten om het geluid zo hard mogelijk te krijgen is een dom, achterlijk en gestoord idee. Waarom? Omdat het verschrikkelijk klinkt! Muziek moet dynamiek bevatten om het levendig te houden. Zo niet dan wordt het saai en verschrikkelijk pijnlijk voor de oortjes.

Gelukkig zijn er inmiddels maatregelen getroffen om die Luidheid Oorlog die 2 decennia lang de muziekwereld heeft geteisterd te bestrijden. Drie jaar geleden schreef ik daar al eens over. Met de komst van de EBU R128 Peak to Loudness Ratio norm is het hard gegaan. Zo zijn vrijwel alle online services inmiddels voorzien van een algoritme dat ervoor zorgt dat alle muziek op hetzelfde geluidsvolume zet. Dat geldt ondermeer voor YouTube, Spotify, Apple Music en TIDAL. Recentelijk heeft TIDAL dat uitvoerig laten onderzoeken. TIDAL wil de hoogst mogelijke kwaliteit bieden en werd juist opgericht om een nog hogere geluidskwaliteit dan Apple Music en Spotify te kunnen leveren (non-lossy). Maar is het aanpassen van het volume tussen nummers of albums dan wel gewenst?

De Nederlander Eelco Grimm, die ook betrokken was bij het ontwikkelen van de Europese uitzendnorm EBU R128, deed voor Tidal een onderzoek. Hij wilde de luidheid van muziek meten via de zogenaamde BS1770-4 methode. Deze methode houdt niet alleen rekening met de pieken in het signaal, pieken zijn immers tijdelijk, maar houdt rekening met de pieken èn de gemiddelde dynamiek in het signaal. Dat laatste maakt het uniek aangezien de methode rekening houdt met het menselijk gehoor (bepaalde frequenties ervaren we immers als luider ook al zijn ze niet harder in luidheid) en bovendien kan de dynamiek over lange tijd als ook over korte tijd gemeten worden. Hiermee krijgen we dus perfecte “inzage” in de luidheid van het signaal.

In samenwerking met TIDAL onderzocht Eelco 4,2 miljoen albums (!) op luidheid. Dit rapport is online te lezen/downloaden (PDF). De belangrijkste vraag die hij stelde is: moet TIDAL per nummer volumecompensatie toepassen, of moet dit voor een album als geheel worden toegepast? Als dat laatste het geval is zal een album dus altijd de verschillen in luidheid tussen de afzonderlijke nummers behouden.

Onderzoek leverde op dat het testpanel het liefst de verschillen in luidheid per album behouden ziet. Het album wordt dan in vergelijking met andere albums wel gecompenseerd, maar de onderlinge tracks niet.

De norm waar Eelco op uitkwam is -14 LUFS. Simpel gezegd betekent dit dat de gemiddelde dynamiek (LUFS) van een album op -14 dB onder 0 (de digitale grens, daarna treedt clipping immers op) mag liggen.

Een van de belangrijke adviezen die Eelco TIDAL gaf was:

Om clipping te voorkomen mag de geluidssterkte alleen verzwakt maar nooit verstrekt worden. Als het luidste nummer van een album zachter is dan het doelniveau (-14 LUFS), worden alle nummers van het album zacht weergegeven.

Albums die dus luid gemasterd zijn worden in volume flink verlaagd. Dat geldt voor het overgrote meerendeel van de 4,2 miljoen albums die onderzocht werden.

Recentelijk sprak Eelco uitgebreid over de EBU normering en zijn onderzoek voor TIDAL met Ian Shepherd in The Mastering Show:

Een interessant verhaal brengt Ian daarin ter sprake. Taylor Swift haar laatste album is veel te luid gemasterd, net als haar voorafgaande albums. Maar aangezien YouTube het volume net als TIDAL niet omhoog versterkt zorgt het compenseren van het volume ervoor dat nu de zachtste nummers op dat album juist nog zachter klinken. Op andere streaming services is dus hetzelfde het geval.

En podcasts dan?

De normering voor muziek is ronduit een verademing. Er is echter wel een probleem: je kunt die normering niet zonder meer toepassen op podcasts, op audio waarin met name gesproken wordt. Voor spraak is er sowieso meer dynamiek nodig dan bij muziek. Welke norm moeten we daarom toepassen op podcasts? Ik verwacht zo rond de -20 LUFS, maar onderzoek en internationale consensus hierover moet dat definitief gaan bepalen. Dat gaat de komende jaren echt gebeuren want de Luidheid Oorlog heeft geen enkele kans op bestaan meer. Of Taylor Swift het nu wil of niet.

Tot slot een plaatje van hoe meneer Michael Jackson in de loop van de jaren steeds harder ging klinken. Het is inmiddels geschiedenis, dat moge duidelijk zijn. Luidheid is genormeerd.

Soms zijn regels dus echt wel ergens nuttig voor…

toename in luidheid : 1991-1995-2007 (beeld: publiek domein/wikimedia)

Hoe de geest in de muziek rondwaart

Met de uitvinding van de fonautograaf in 1857 bleek geluid zich te te bevriezen zoals het ooit klonk. Het geluid dat altijd als vergankelijk werd een soort boek, een document van geluid.

De sampler

Tijdens mijn jeugd kwamen de eerste samplers op de markt. Je riep “oh” in de microfoon en vervolgens kon je dat als een smurfenorkest uit de sampler laten klinken. Rappers stopten hun favoriete swingende grooves van ondermeer James Brown in de sampler. Zo vanaf het stoffige vinyl met een ouwe naald. Sfeerverhogend en nooit uit op perfectie. Het doel heiligde alle middelen voor de rappers. Helaas roken de advocaten geld en werd samplen bestempeld als een vorm van jatwerk. Wanneer ik een foto van een schilderij maak heb ik dan dat schilderij ook gejat?

Wat DJs doen wordt niet beschouwd als jatwerk. De platen van anderen met elkaar mixen en daar filters op loslaten. Sommigen gebruiken de beat van de ene plaat om onder de andere te leggen, 100% vergelijkbaar hoe dat in Hip hop altijd werd toegepast. Het is een traditie die ouder is dan Hip hop en teruggaat naar de jaren 60: Dub muziek. Door met behulp van 2 platenspelers en een echo-apparaat kun je een song in lengte gaan oprekken door deze steeds opnieuw vanaf een bepaald punt opnieuw te starten voordat de zang begint. Dubmuziek legt de nadruk op het ritme, de bas en de drums.

Zowel Hip hop, DJ muziek als Dub muziek leunen dus voor grotendeels op opgenomen muziek. Het is een herbewerking van het bestaande.

Maar laten we deze copyright discussie maar even voor wat het is. Het feit dat je muziek eenvoudig kunt afspelen via een drager is een nieuw instrument gebleken. De sampler is eigenlijk niets anders dan een opname- en weergavetechniek die de opname/sample op verschillende toonhoogtes kan afspelen.

Kleurloos digitaal

Inmiddels is de computer, inclusief de smartphone en de tablet, het apparaat om iets uit het verleden mee te reproduceren. Dit is onze moderne sampler. En de computer kan nog iets anders: het nabootsen van patronen en klanken middels algoritmes en presets. De klank van vroeger. De klank van een ouwe viool. De klank van het drumstel van Ringo Star met theedoeken over de trommels en een Fairchild limiter op de mix terwijl de ruis van de analoge bandrecorder er dwars doorheen klinkt. Het is een stel computer berekeningen om van input naar output te komen.

Daarmee is de computer een tijdsmachine te noemen. Het maakt geen onderscheid tussen oude en nieuwe klanken. De computer is immers neutraal. Voer de computer met een opname en de computer kan het geluid daarvan omzetten naar iets anders. De klank van vroeger bijvoorbeeld, we zijn er dol op. Net als de warme analoge filters die in fotografie en film veel toegepast worden. Het brengt sfeer daar waar digitaal kleurloos en neutraal is.

Als een blank canvas daagt digitaal uit tot vervorming, oneffenheden, ruis, kleuring et cetera.

Hauntology

Het is de Franse filosoof Jacques Derrida (de Britse band Scritti Politti maakten ooit een lied dat zijn naam draagt) die in zijn boek Spectres of Marx uit 1993 de term Hauntology introduceert. Jacques constateert dat een geestesverschijning evenveel met het heden als met het verleden te maken heeft. En de persoon die de geestesverschijning “ziet” behoort daarmee evenveel tot het verleden als het heden. Het is een paradoxaal verschijnsel dat de tijdelijkheid in alles laat zien.

Kortom: het verleden in het heden.

Het omgekeerde geldt ook. Muziek die klinkt als De Toekomst. De synthesizer was het geluid van de toekomst maar wie nu een oude synth hoort, hoort inmiddels een gedateerde klank. Technologie maakt van ons allemaal geesten. Alles wat we nu doen kan ooit weer opgeroepen worden.

Dankzij de opgenomen muziek, de sampler, de computer, kunnen we geest in de fles stoppen en deze er op elk moment weer uithalen. Exact zoals het ooit was, zoals het ooit klonk. De klank, inclusief kraak, ruis, het gevoel van Toen.

Voor de komst van de sampler klonk muziek Modern wanneer je gebruik maakte van een nieuw muziekinstrument, de polyphone synth bijvoorbeeld die ook pas tijdens mij jeugd op de markt kwam (kun je nagaan hoe nieuw dit allemaal is!). Nu door sampling en de computer halen we juist het oude terug. Dankzij de computer slaan we een brug met ons verleden. Kunnen we het verleden oproepen en stelt het ons in staat om alle patronen uit de muziekgeschiedenis op te roepen. Alle geluiden uit het verleden staan tot onze beschikking. En omdat we het verleden koesteren, roepen we maar wat graag de imperfectie uit het verleden op. En wordt het verleden even belangrijk als het heden.

Popmuziek anno nu: “ja, vroeger was het dus wel beter!”

Vanmorgen las ik het interessante stuk ‘Pop, niche en The National’ van Peter Bruyn. Ik kan me er zeer in vinden maar benader de pijnpunten op een wat andere manier. Het zat al een tijdje in mijn hoofd, vandaag moest het eruit.

Popmuziek is een soort klassieke muziek geworden. Het blikt vooral terug en voegt niets toe aan wat er al was. Je ziet het ook bij de opleidingen, de rockacademies en dergelijke, je kunt opgeleid worden tot musicus. Perfecte instrumentbeheersing heeft men, maar eigenheid en de wil alle regels te breken ontbreekt vrijwel volledig. Bowie, Prince en Radiohead worden smachtend aanschouwd op de YouTube.

Nederland, slaap zacht

Men is tegenwoordig aards commercieel. Dat lag vroeger anders. Popmusici waren vroeger kunstenaars en dachten progressief. Die gingen desnoods arm dood. En waren voor de duvel niet bang. Nu streeft men ernaar op een gesponsord lijstje in Spotify te komen. En staat men slaafs die 1 minuut bij De Wereld Draait Fokking Door te doen. Of wil men als reclametune gebruikt te worden. Vroeger weigerde men voor Pepsi of Sun City in Afrika te spelen. Die uitgesprokenheid mis ik tegenwoordig totaal. Hooguit laat men de uitnodiging van een Trump varen om op zijn inhuldings”feestje” te spelen. Maar alleen omdat men anders kritiek krijgt want voor de poen doet men tegenwoordig immers alles. Principes, geen.

Popmuziek was vroeger uitermate rebels. Het was het antwoord op de tuttige jaren 50. Alles moest alles. In Engeland was de kloof tussen arm en rijk groter en was de impact van de sluiting van de mijnen in de 70-er jaren enorm. Er was daarom dus ook meer en harder verzet. Dat hoor je terug in de muziek. Zo kwam met de punk eind jaren 70 weer een stijl terug zoals de oude rock ‘n’ roll, gebaseerd op slechts 3 akkoorden (ala de blues), simpel en rauw. Wij hadden geen Margaret Thatcher, een gestoorde bitch zonder gevoel waar je je echt keihard tegen moest verzetten. Nederlandse muziek wil vooral voor vermaak zorgen. De handjes op elkaar krijgen. Niet vanuit innerlijke noodzaak maar puur om het volk te vermaken. Entertainment. Het gezellig houden. Je ziet het op tv ook. Niets mag meer ontsporen. Alles moet volgens een strak schema voorspelbaar verlopen. Jules Deelder vragen ze niet meer omdat ze bang zijn dat hij zijn mond open doet. Daarom zie je altijd dezelfde gedrilde koppen bij DWDD. Slaafs volk dat braaf doet wat Matthijsje van ze eist.

Popmuziek leunt op specifieke instrumenten en opnametechnieken

Er zijn bands geweest die van enorme invloed zijn geweest, die de muziek voor altijd hebben veranderd. Het loopt parallel aan de ontwikkelingen van muziekinstrumenten waar popmuziek door heeft kunnen ontstaan en kunnen groeien.

Popmuziek is precies ontstaan toen men de contrabas inruilde voor een elektrische bas. De contrabas was het instrument van de rock ’n’ roll. Precies daarom zijn Paul McCartney en Brian Wilson grote vernieuwers op dat vlak, zij herkenden de melodische waarde van de elektrische bas. Die waarde had een bas nog nooit gehad. Een contrabas heeft een doffig dreunend geluid, een elektrische bas kun je perfect horen. Is dus melodisch in te zetten. Het is een van de fundamentele kenmerken van popmuziek. De bas is zeer aanwezig samen met de drums. En om dat laatste nog even te verduidelijken: het drumstel is afkomstig uit de jazzmuziek. En de opstelling ervan is ongewijzigd.

Zo kun je verder gaan. De opkomst van de mulittrackrecorder (voor het eerst echt goed gebruikt bij de Beatles), de synthesizer, de POLYphone synthesizer, de drummachine, de sampler, MIDI, de computer, de autotune en toen? Toen niets dus. Er zijn geen instrumenten meer aan toegevoegd. Men gebruikt veelal software tegenwoordig en ook daar is het retro dat de klok slaat. Men probeert in software de klanken van Bowie en dergelijke na te bootsen. De oude Linndrum van Prince als een stel samples. Hip Hip en classic house samples. Alles is een preset geworden. Even oproepen en je klinkt precies als die of die.

Men vernieuwt niet maar kijkt terug. Elke moderne rockband is tegenwoordig schatplichtig aan Radiohead of bands die ouder zijn dan zij. En je ziet het ook terug in de apparatuur die ze gebruiken. Sommigen gebruiken de analoge synths van ruim 35 jaar geleden!!! En nemen weer op middels analoge bandopnames!!! Dat is terugblikken terwijl je zachtjes fluistert: “ja, vroeger was het dus wel beter!”

Het neutrale geluid manipuleren

waveform

Met de komst van de opnametechniek in de vorige eeuw probeerde men muziek in haar meest perfecte vorm vast te leggen. In plaats van een enkele liveopname voor publiek kon men hierdoor in de studio zoveel takes doen als men nodig had voor het vastleggen van de “perfecte” uitvoering.

Les Paul vond eind jaren 40 uit dat je met twee recorders stukje bij beetje een soort orkestje van gitaren en stemmen kon opnemen door de ene recorder op afspelen te zetten terwijl de andere recorder opneemt terwijl je er een andere partij bij speelt. Een soort audiopingpong. En Les verzon nog een revolutionaire truc, door op halve snelheid zijn partijen op te nemen klonken deze bij weergave op normale snelheid als razendsnel virtuoos spel:

De klassieke pianist Glenn Gould raakte in de 60-er jaren gefrustreerd van het geven van concerten. Nooit was de uitvoering naar zijn idee perfect terwijl hij die perfecte uitvoering wel in zijn hoofd hoorde. Hij stopte daarom geheel met het geven van concerten en was alleen nog maar in de studio te vinden. In de studio koos Glenn de beste delen uit en plakte de audiotapes daarvan aan elkaar om zo zijn perfecte uitvoering te creëren.

Met de komst van de multitrack-recorder midden jaren 50 werd het mogelijk om instrumenten spoor voor spoor verspreid over meerdere kanalen op te nemen. Hierdoor kreeg men nog meer controle over de muziek en klank. The Beatles met name waren ware pioniers op dit vlak. Hun muziek klonk niet meer als een live uitvoering maar als muziek die je alleen in een studio kunt maken. The Beatles stopten in dezelfde periode als Glenn Gould met het geven van liveoptredens vanwege eenzelfde argument. Het vormt een opvallend parallel tussen deze pioniers.

Vervolgens kwamen achtereenvolgend de drumcomputers, de polyfone (meerstemmige) synthesizers en de samplers op de markt en werden de partijen steeds vaker geprogrammeerd in plaats van door muzikanten ingespeeld. Hiermee werd de controle over het geluid ook steeds preciezer. Inmiddels is met behulp van de computer en de digitale techniek het spel van muzikanten totaal elastisch geworden. Zodoende kan de klankkeur achteraf, na opname, aangepast worden, kan de timing verbeterd worden en kan de toonhoogte onhoorbaar aangepast. Zelfs zanglijnen die behoorlijk vals klonken tijdens opname kunnen perfect in tune gemaakt worden zonder dat het publiek hoort dat de stem slechts een klankbron vormt voor een melodie die door de engineer geboetseerd is.

We kunnen stellen dat tegenwoordig elk geluid een bron kan zijn voor het maken van klanken die als muziek klinkt. Zo maakte ik een keer in opdracht van Disquiet Junto een muziekstuk dat als basis 1 sample had: een opname die ik maakte van een uitklontje in een glas. Dankzij de sampler en uitgebreide manipulatie tools kon ik uit die ene sample van slechts een paar seconden een heel muziekstuk persen:

Dankzij de complete controle over geluid kunnen we elk geluid produceren. Het levert een ongekende vrijheid op. We zijn hooguit afhankelijk van onze fantasie, kennis van geluid en de kunde om het te manipuleren. De kennis over hoe we geluid kunnen manipuleren neemt nog altijd toe. En daarmee ook de mogelijkheden en de tools die ons daarbij helpen. We kunnen als het ware steeds dieper inzoomen in het geluid en het aanpassen.

Het manipuleren van geluid lijkt grenzeloos. Het is niet gebonden aan een bepaalde stijl. Niet gebonden aan een bepaalde vorm. Het is neutraal van karakter, blanco. Als een wit scherm waar de schrijver in staart. Het daagt me uit.

Resonanties in de akoestiek (en wat tips om dat te verbeteren)

Onze oren zijn zo gekleurd als wat. Sommige frequenties klinken in onze oren harder dan anderen ook al zijn ze gelijk in geluidssterkte. De waarneming ervan is zeer afhankelijk van de geluidssterkte waarop we ze horen.

Kortom: onze oren zijn niet-lineair.

Een afgesloten ruimte is lineair

Een ruimte is wel lineair. Onafhankelijk van het geluidsvolume blijft de balans tussen de frequenties gelijk. Ook resonanties in frequenties (simpel gezegd: zoemtonen en tonen die rinkelen), bijvoorbeeld veroorzaakt door reflecties in een ruimte en het opstapelen van deze frequenties door de hoeken van een ruimte en de beperkte lengte van een ruimte, zijn gelijk. Die resonanties nemen wij echter niet-lineair waar omdat ons gehoor niet-lineair is. Dus bepaalde zoemtonen/resonanties zullen we dan ook op een hoog geluidsvolume als veel meer irritant waarnemen dan op een laag volume.

De eenvoudigste methode om vervelende resonanties/stapelfrequenties te ontdekken is middels het afspreken van een audiosweep, een beweging in het geluid van lage naar hoge frequenties. Speel dit af over de boxen en je zult al snel ontdekken dat diverse frequenties luider klinken dan anderen. Dit zijn de resonantiefrequenties.

Het is vrijwel onmogelijk om een ruimte helemaal “recht” te krijgen qua frequentiekarakteristiek. En dan nog geldt dat slechts voor 1 bepaalde positie. Met behulp van akoestisch materiaal dat bijvoorbeeld peakfrequenties in het laag kan absorberen (energie van geluid wordt omgezet in warmte), middels de welbekende basstraps, kan de frequentiekarakteristiek wat rechter gemaakt worden. Met name door de enorme draagkracht van lage frequentie gaan deze in een kleine ruimte al snel stapelen/resoneren en zullen ze een probleem vormen.

Het opstapelen van frequenties

Resonanties worden dus veroorzaakt doordat de luchttrillingen op bepaalde plekken samenvallen waardoor ze een versterkend effect hebben. Ze stapelen op. Dit is te voorkomen door te zorgen voor zo min mogelijk reflecties tussen de geluidsbron(nen) en je oren. Vandaag de dag heeft vrijwel iedereen die serieus met muziek en geluid bezig is een beeldscherm of laptop tussen beide luidsprekers instaan. Soms zelfs meerdere beeldschermen. Dit vergroot het aantal resonanties, kamfilters om precies te zijn die de frequenties laten rinkelen op een onaangename manier. Dit effect krijg je ook als je bijvoorbeeld met je mond door een buis spreekt. Door de kleine ruimte die gecreëerd is gaan de frequenties samenvallen, opstapelen, wat resulteert in de welbekende irritante piekfrequenties.

Perspectief is alles

Maar nu komt het: omdat op bepaalde punten in de ruimte die frequenties zich opstapelen, zul je ze niet horen wanneer je je op een andere plek bevindt. Het waarnemen van geluid is namelijk totaal afhankelijk van waar je je in de ruimte bevindt. Zelfs zware zoemtonen in het laag zul je vanaf een andere plek in de ruimte niet waarnemen.

Speel de audiosweep een paar maal af terwijl je vanaf een andere plek in de ruimte luistert en hoor hoe die resonantiefrequenties verschuiven, of wellicht zelfs helemaal wegvallen.

De beste luisterpositie in een ruimte bevindt zich overigens meestal in het midden van de ruimte. Voor het plaatsen van luidsprekers is het van het grootste belang om zo min mogelijk reflecties te creëren. Plaats ze daarom niet te ver van de muur af. In geluidsstudios worden ze soms zelfs in de muur ingebouwd om zo achterwaartse reflecties geheel uit te sluiten. Het is zaak dat de trillingen die de luidsprekers in de lucht veroorzaken de oren rechtstreeks, dus zonder tussenweg, bereiken.

Het beste is om de luidsprekers en de luisteraar in een driehoekspositie te plaatsen, waarbij de afstand tussen beide luidsprekers even groot is als de afstand tot de luisteraar. De luidsprekers moeten op oorhoogte geplaatst worden.

studio-1

De handel in akoestisch materiaal is big business, maar de goedkoopste en eenvoudigste methode is jezelf in de ruimte verplaatsen om zo op zoek te gaan naar de beste plek. Door de geluidsbron en de luisterpositie in de ruimte nauwkeurig op elkaar af te stemmen kun je het geluid enorm verbeteren.

En zelfs voor wie veel mixt is het vaak zaak om van positie te wisselen. Want hoe goed je ruimte ook geoptimaliseerd is en hoe goed je luidsprekers ook zijn, je zult soms van luisterpositie moeten wisselen. Omdat vanuit een andere positie de geluidswaarneming ook verandert.

Bij het optimaliseren van geluid tasten we behoorlijk in het duister. Het is een compromis in een zoektocht naar het optimale geluid. Het optimale geluid dat dus simpelweg niet bestaat.

Wendel, de drummachine van Roger “De onsterfelijke” Nichols

publiek domein foto

Roger Nichols, de legendarisch engineer van Steely Dan is ook de uitvinder van Wendel, een digitale drumcomputer. Het eerste model bouwde hij al in 1978. Wie De Geschiedenis Der Drumcomputer een beetje kent weet dat hij daarmee zijn tijd ver vooruit was. Die andere bekende digitale drumcomputer, de Linn LM-1 (vaak foutief de LinnDrum genoemd) kwam namelijk pas in 1982 ter wereld.

De man won trouwens met Steely Dan drie (!) Grammy Awards in de categorie Best Engineered Recording — Non-Classical vanwege zijn “meticulous studio work”. Een daarvan ontving hij voor het Gaucho album waarop zijn uitvinding Wendel volop te horen is. En voor het eerst in de muziekgeschiedenis won een drummachine daarmee een platina album. Ik heb sterk het vermoeden dat dat nadien nooit meer is gebeurd!

foto uit privécollectie Roger Nichols

En er zit nòg een aardig verhaal aan vast. Roger vertelt:

Vandaag stuitte ik op een andere video, een korte docu over die legendarisch dildodrummer Wendel:

In de beginjaren 2000 had ik trouwens weleens contact met Roger. Roger gebruikte net als ik toentertijd het softwarepakket Nuendo van onze Duitse buurtjes (Steinberg). Zodoende kwam het soms van een online chat. Mag geen naam hebben hoor maar ik weet nog wel dat toen Steely Dan in Ahoy zou gaan optreden Roger me vroeg om tijdens het concert ff naar hem te zwaaien, hij moest namelijk de zaalmix doen. En godskolere wat klonk dat goed!

Roger overleed helaas heel tragisch in 2011 aan de gevolgen van alvleesklierkanker. Gelukkig is hij een beetje in mijn DNA gaan zitten. De zoektocht naar een uitstekend geluid gaat nooit voorbij. En het heeft Roger in ieder geval onsterfelijk gemaakt. De platen die hij met Steely Dan maakte zijn nog altijd referentie albums om geluidsapparatuur mee te testen.

Op zoek naar het stof in samples dankzij The Dust Brothers

Het duo John King en Mike Simpson – oftewel The Dust Brothers – hebben een nieuwe manier van arrangeren en een nieuwe klankopvatting uitgevonden. Zij waren de eersten die hele composities middels samples opbouwden. Paul’s Boutique van de Beastie Boys is hun doorbraakproductie die enorm veel navolging heeft gekregen.

Met dat album hebben de Beastie Boys de hiphopwereld totaal veranderd. Daar waar hiphop leunde op een drummachine, scratching en hier en daar een sampletje, gingen de Beasties met The Dust Brothers veel verder. Op Paul’s Boutique vormen de honderden samples een muzikaal geheel, een muzikaal mozaïek. Een techniek die The Dust Brothers ook op Beck’s Odelay hebben toegepast, een kleine 10 jaar later. En waarmee men haar invloeden in het popidioom liet gelden.

Inmiddels waren er al vele rechtzaken geweest over het toepassen van de samples (lees: advocaten roken geld) waardoor The Dust Brothers hun eigen samples besloten te gaan maken. In plaats van muzikanten hele partijen te laten inspelen, lieten zij de muzikanten een maat muziek spelen op herhaling totdat ze iets vonden dat te gek klonk. Een zoektocht naar de imperfectie, het stof in de samples.

Because for some of the more traditional musicians we worked with, the idea of sampling was sort of foreign, and they wanted to play things right. But we don’t necessarily want you to play things right, we want you to play things cool. You play over a groove until you have a good bar, and then we take that bar and loop it. I always say that our best music comes from mistakes that happen. You’re trying to do one thing, and then someone makes a mistake and that mistake ends up being the hook of the song, the coolest part of the song.

interview Sound On Sound

De samenwerking met Beck heeft vele geweldige albums opgeleverd. Ze laten een nieuw geluid horen dat de popmuziek in mijn oren enorm verrijkt heeft. Ruis, fuzz, piepjes en klikjes vergroten hier de muzikale feestvreugde. Een zoektocht naar imperfectie.

Het is een techniek die veel navolging heeft gekregen. Ook in Nederland. Want neem nu Spinvis. Op zijn debutalbum uit 2002 kun je heel goed horen hoe Erik de Jong grossiert in samples met rafelrandjes.

Geluidsdetective: Voor Ik Vergeet van Spinvis en het Reason-loopje

Erik samplet ook zichzelf. Duidelijk te horen is hoe hij allerlei loopjes met kleine schoonheidsfoutjes als één groot muzikaal mozaïek samen laat vallen. Het gruizige karakter van de samples zorgt ervoor dat zijn muziek niet glad wordt.

Precies die gladheid is een gevaar dat op de loer licht als je een computer gebruikt. Zelfs stemmen worden tegenwoordig aalglad gemaakt middels de Auto-Tune. The Dust Brothers kozen precies de tegenovergestelde route. Eentje die mijns inziens dus veel interessanter is. Perfectie is immers saai.

De computer kan componeren dus moet de componist zichzelf opnieuw uitvinden

Het ontstaan van de fotografie heeft de schilderkunst beïnvloed. Daar waar schilderkunst voor een groot deel leunde op het vastleggen van de realiteit beseften schilders tijdens de opkomst van de fotografie dat men daar qua realisme niet tegen opgewassen was. Schilders vonden het vak opnieuw uit. Realisme was passé, impressionisme en abstractie werden key.

In de kunst zie je dit opnieuw gebeuren door de creative computers die steeds beter in staat zijn om creatieve werken te genereren. Vaak als variatie op wat er al is “in de stijl van…”

Het is al een tijdje aan de gang. Ook in de muziek. We luisteren al jaren naar drummachines, basmachines, loopjes en allerlei geautomatiseerde patronen. Daarbij gaat de computer ook steeds meer zelf meespelen als een echte muzikant. Zo zit al jaren een Drummer in Logic, Garageband en Muziekmemo’s (iPhone/iPad) die automatisch, net als een echte drummer, meespeelt met bijvoorbeeld een gitaarpartij. En in Muziekmemo’s dat ik op mijn iPhone gebruik wordt er naast een automatische drumpartij ook automatisch een baspartij bij verzonnen.

Muziek is een kwestie van wiskunde. Rekenwerk met vaste patroontjes .

Nu de computer steeds creatiever wordt zullen we onze eigen creativiteit opnieuw moeten beschouwen en uitvogelen wat onze toegevoegde waarde moet zijn. Misschien verliezen we die wedstrijd. Net zoals we het van de schaakcomputer dus allang verloren hebben. Kijk, wij mensen denken dat we het belangrijkste op deze wereld zijn. Belangrijker dan dieren, belangrijker dan de natuur. Maar ik ben toch bang dat die zelfoverschatting nogal lachwekkend is. Zo belangrijk zijn we namelijk echt niet. We vergallen het milieu en schieten onze medemensen massaal af. We doen dus best gerichte pogingen om het mensenras te laten uitsterven. Wat dat betreft blijven we zoogdieren natuurlijk: uitsterven behoort tot de mogelijkheden.

Maar goeds, laat ik niet te negatief zijn. Die creatieve computers zijn heel interessant. We zullen daardoor realistisch moeten zijn. Het confronteert ons met een realiteit die vergelijkbaar is toen de fotografie ontstond. En dus zullen we moeten zoeken naar nieuwe manieren die ons doen opwinden. En wellicht zullen we dat samen met de computer moeten doen want de concurrentie aangaan met de computer is bij voorbaat een verloren strijd.

Wat als de computer de melodieën componeert?

Bob van Luijt twitterde in een discussie over copyright iets belangrijks:

De computer als bedenker

Het document Importance of Being Digital (gratis PDF) beschrijft hoe door de digitale techniek het ongelofelijk eenvoudig is om muziek op te wekken en daar afgeleiden van te maken. Ik geloof dat werkelijk geen enkele politicus, rechter of advocaat op de hoogte is van hoe moderne tools de creaties van vandaag de dag bepalen. Nog altijd blijft men volhouden aan copyrightsysteem voor creaties waarin een duidelijk melodie waarneembaar moet zijn die vervolgens wordt geregistreerd door een persoon of bedrijf. Daarin wordt de melodie heilig verklaard.

Maar wat nu als de bedenker, de componist, een computer blijkt te zijn?

In het document Importance of Being Digital worden diverse zinvolle voorbeelden gegeven hoe je met behulp van moderne tools muziek kunt creëren. Weet ik alles van, is mijn vakgebied. Bijvoorbeeld door peak frequenties om te zetten naar andere muzikale elementen. Zo kun je bijvoorbeeld een fragment waarin iemand spreekt de noten van viool-samples laten triggeren, om maar wat te noemen. Het klinkt als muziek in de oren terwijl de bron bijvoorbeeld juist a-muzikaal is. De computer kun je tenslotte met van alles voeden.

Witte ruis en andere random algoritmes

Witte Ruis bestaat al zolang als de weg naar Rome. Het is de perfecte Random Generator. En op basis van zo’n random algoritme, witte ruis of iets soortgelijks kun je melodieën At Random laten genereren door de computer. Brian Eno doet dit al jaren.

Je kunt juist ook beperkingen gaan verzinnen waardoor het ineens “muzikaler” gaat klinken, want te random klinkt vaak te abstract. Grappig dat, des te meer we de computer beperken, des te meer deze muzikaler klinkt. Een leuke mind-fuck niet waar? Muziek = random noise beperken.

Een van die muzikale beperkingen is bv de toonsoort en de manier hoe harmonieën gecreëerd moeten worden. Sommigen zullen het als Artificiële Muzikale Intelligentie bestempelen. Komende jaren zal in dit gebied enorm veel ontwikkeld worden. We gaan de computer steeds meer voeden met muzikale presets, stijlidiomen en patronen. De computer kan zodoende op basis van historische muzikale ideeën nieuwe creëren.

Generieke muziek

In een van mijn eigen tracks gebruikte ik een poos geleden deze generieke techniek. Het vertoont overeenkomsten met het werk van Brian Eno.

Deze generieke muziek wordt al massaal ingezet maar zal in de toekomst een vlucht nemen. Met name de computer “leren” hoe te reageren op beelden zal de wereld van de filmmuziek komende jaren totaal op z’n kop gaan zetten. Ik voorspel generieke muziek die klinkt als bijvoorbeeld oude funk of klassieke muziek.

Een aardig voorbeeld, een blik in de toekomst, is track Daddy’s Car die geheel door de computer gecomponeerd werd op basis van “45 songs of The Beatles”:

Wie claimt het copyright?

Wie geven we hiervoor het copyright? De computer? Het computerprogramma? De persoon die wat instellingen deed? De persoon die de export maakte? Is er al een jurist die hier iets zinvols over geroepen heeft?

Een ding dat zeker is: het zet copyright VOLLEDIG op z’n kop.

De mogelijkheden van het hergebruiken van muzikaal materiaal is dankzij de computer oneindig. Maar moeten we dit vanuit copyright bezien beschouwen als een inbreuk?

Paul Lansky werd de bron van Radiohead

Paul Lansky bouwde in het midden van de jaren 70 zijn allereerste stuk op de computer. Het stuk Mild und Leise bijvoorbeeld:

Radiohead gebruikte een stukje uit dit stuk in haar song Idoteque op het album Kid A. Het oorspronkelijk stuk van Paul klinkt behoorlijk abstract, het is een computer die at random klanken opwekt. Toch hoorde Radiohead er dus duidelijk muziek in.

Conclusie: ons copyright systeem loopt achter

Copyright loopt achter op de techniek. Toch is het niet zo moeilijk om een toekomst te voorspellen die gelijk is aan open source. Een toekomst waarin we we de bronnen zullen moeten respecteren (plagiaat is wat ik haat!), maar hergebruik zal altijd moeten mogen en niet langer een inbreuk op iemands rechten zijn. Want hergebruik is precies wat de computer tot een computer maakt. Het is het perfecte kopieerapparaat dat alles voor ons kan maken. En geheel autonoom. Als een zelfsturende auto. Als een chatbot.

Kortom: de computer als componist is een feit.

P.S. Net nadat ik op publish had gedrukt schoot de herinnering aan een uitzending van Podium Witteman naar boven. Hoe we inmiddels zelfs de componist der componisten Bach uit de computer kunnen halen.

Het mixen van gesproken woord

Bij het maken van een radiodocumentaire of een podcast heb je rekening te houden met de verstaanbaarheid van de stemmen. Wat er gezegd wordt. En dat is best lastig want tijdens een gesprek valt er al snel een woord weg omdat er een brommer voorbijrijdt of omdat je als interviewer de microfoon net op het verkeerde moment wegdraait om een volgende vraag te kunnen stellen. Gelukkig kan ik dat achteraf aanpassen tijdens de mixage. Het kost een boel werk, maar het moet gebeuren omdat het de luisterervaring sterk verbetert.

Dankzij moderne hedendaagse software kan ik minuscule veranderingen maken die de luisteraar niet zal opmerken tenzij ik het allemaal achterwege laat want dan zal de luisteraar regelmatig naar de volumeregelaar moeten grijpen. Dat is natuurlijk onzinnig want het geluidsniveau moet gewoon optimaal gebalanceerd zijn. Alle stemmen moeten op hetzelfde volumeniveau zitten, zo simpel is het eigenlijk. En juist heden ten dage hebben we daar radionormeringen voor afgesproken binnen Europa. Programma’s zoals Spotify, iTunes Music en YouTube gebruiken die normen ook en het zorgt ervoor de luisteraar niet de hele tijd met de volumeregelaar de boel hoeft bij te sturen. Wat vroeger wel het geval was. En ook met CD’s en vinyl het geval is.

Helaas houden nog altijd relatief veel podcasters zich niet aan de norm. Het resulteert in gesprekken die vermoeiend zijn om naar te luisteren. En dat is zonde, want de luisteraar haakt uiteindelijk dan toch echt af. Ik in ieder geval wel.