AI is dé oplossing voor geluidsnerds

Hoewel ik met een opgetrokken wenkbrauw het AI-nieuws, dat heden ten dage onvermijdelijk te negeren valt, tot mij neem, wil ik vandaag even de rode loper uitrollen voor ons kunstmatige vriendje.

Wat is het geval? Zoals ik het al eerder subtiel wist te verwoordden:

Software wekt de schijn dat je een drol kunt polijsten. Voor een deel is dat zelfs waar.

Dus daar wilde ik vandaag even op doorgaan.

We gaan een drol polijsten

Hierbij een voorbeeld uit de praktijk. Luister naar deze slecht klinkende opname:

En luister nu naar het resultaat nadat ik de opname door een AI-tooltje had gehaald (plus er een paar aanvullende EQ correcties op los had gelaten):

Niet te geloven toch? De oorspronkelijke opname heb ik proberen te verbeteren middels iZotope Voice De-Noise en De-Reverb maar het resultaat sloeg nog altijd als een tang op Dirk. Een softwarepakket waarvoor geluidsnerds zoals ondergetekende 400 ballen moeten neerleggen…

De oplossing werd geboden door de AI-tool van Adobe genaamd Enhance Speech. Deze is sinds eind vorig jaar op de markt en is op dit moment zelfs gratis te gebruiken omdat ze de tool aan het trainen en verbeteren zijn. In AI-termen heet dat: training the model.

Er zijn overigens inmiddels best veel van dit soort tools op de markt verschenen. Zoals daar zijn audo.ai en AudioDenoice.

Waar zit hem de vernieuwing in?

De iZotope De-Noise plugin die tot verkort elke professionele audioknutselaar gebruikte, werkt op basis van een, inmiddels ouderwets te noemen methode: het analyseert de frequenties van de ruis en filtert deze vervolgens uit de opname. Voor de De-Reverb wordt een soort omgekeerde compressie-techniek gebruikt, maar het voert te ver om dat proces in deze blogpost helemaal uit te leggen.

Waar het op neer komt is dat die traditionele audiotools niet met de inhoud rekening houden. Dat kunnen ze simpelweg niet. Het rommelt wat met frequenties en de luidheid ervan. En dat is alles. AI luistert wel naar de inhoud, naar Wat Er Gezegd Wordt. Het laat zich leiden door de grammatica. En hoewel je kunt twisten of het echte intelligentie is die AI biedt, het levert een verbetering middels een proces dat rekening houdt met de vraag “waarom zou je ruis en roomecho uit een opname willen verwijderen?” Een vraag waarvoor de iZotope De-Noise dus geen antwoord zoekt, maar Adobe Enhance-Speech wel. Het antwoord is namelijk simpel: ruis en roomecho zitten de stem in de weg, het zorgt ervoor dat het minder goed te verstaan is.

Dit soort AI-tools zijn perfect in staat om een daadwerkelijk onderscheid te maken tussen de elementen die van belang zijn om los van elkaar te kunnen halen: de roomecho, de achtergrondruis en de stem.

Verandert dit het vak van podcastmaker?

Ik heb een studio aan huis inclusief een inspreekruimte voor het opnemen van voice-overs. Dat gebruik ik eigenlijk alleen voor klanten. Als ik zelf een voice-over opneem voor bv mijn VERVORMER podcast of als guide-voice-over voor een klant dan zit ik gewoon achter de computer met een microfoon. Dat is wat prettiger omdat ik zelf ook de computer moet bedienen. De studioruimte is behandeld met akoestisch materiaal om het dempen van bepaalde frequenties tegen te gaan. Dus zo heel veel slechter klinkt dat niet vergeleken met wanneer ik in mijn inspreekruimte zit.

Maar nu met zo’n AI-tool zoals die van Adobe is er eigenlijk geen enkele reden meer om je druk te maken over een perfect klinkende ruimte. In het voorbeeld dat ik hierboven geef kun je horen hoe Adobe Speech Enhancer van een bizar slechte opname zelfs iets moois weet te maken. Bij extreem ruizerige opnames, of met extreem harde achtergrondgeluiden, natuurlijk, dan zal de Speech Enhancer hier en daar de boel niet 100% jofel kunnen fixen en wellicht zelfs een beetje kunstmatig aandoen (dat doet iZotope ook als je het drastisch instelt en bovendien klinkt het dan vaak nog steeds slecht verstaanbaar). Maar als je een beetje fatsoenlijke opnames weet te maken met een leuke microfoon die je niet al te ver van je mondje houdt, dan zijn de resultaten echt om over naar huis te schrijven.

Ik vind dit te gek. En ja, dat zeg ik ondanks dat ik deels betaald word omdat ik audio beter kan laten klinken. Met de komst van AI is dat nu voor iedereen weggelegd. Maar ik zie dat niet als een bedreiging want ik beschouw dat verbeteren van audio namelijk niet als een bijzonder creatief proces, het is eerder saai te noemen. Dus elke tool die dat proces kan versnellen, is zeer welkom in huize studio Raaphorst.

Daarnaast is het zo dat veel AI-tools niet goedkoop zijn, dus audioprofessionals zoals ondergetekende moeten toch best een paar abonnementjes afsluiten om gebruik te kunnen maken van dit soort handigheden. Het aardige is vooral dat er meer tijd overblijft voor waar het mij echt om te doen is: het creatieve proces van het samensmeden van de inhoud, de muziek en het sounddesign.

Waar gaat dit naartoe?

De resultaten zijn nu al revolutionair te noemen voor tools die nog nauwelijks een jaar op de markt zijn. En zelfs nog volop in ontwikkeling zijn. De techniek wordt bijna met de dag beter en het zet mijn vak volledig op zijn kop. Dit soort AI-tools maakt overbodig dat je hele goed opnames maakt. Maakt zelfs overbodig dat je over goede oren beschikt. Stemopnames optimaliseren is kinderspel geworden.

En om nog even terug te komen op die goede oren: deze techniek gaat natuurlijk ook slechthorende helpen. Mensen met een gehoorapparaat worden meestal in een kroeg of andersoortige drukke omgevingen gek van al het geroezemoes. Welnu dankzij AI wordt het filteren van achtergrondgeluiden ineens een koud kunstje. Dit soort techniek gaat dus op zeker straks in alle hearing aids ingebouwd worden. En ik durf zelf iets anders te voorspellen: mobieltjes in combinatie met oortjes zullen ook van deze filtertechnieken voorzien gaan worden. Zodat iedereen bv in de kroeg of tijdens een concert of op een festival én de luidheid van de muziek kan blokken én de focus op degene waarmee ‘ie praat gaat kunnen leggen.

Kortom: filteren en focussen, laat dat maar aan AI over!


Ontvang mijn blogposts per e-mail

Je kunt de frequentie hiervan zelf instellen.


Reacties

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.