complexiteit
complexiteit
Hallo allemaal,
Laat ik mijn gedachten er ook eens bijplaatsen...
Bij mijn weten is de synthesizer ontstaan in de laboratoria van electrotechnici die erachter kwamen dat je met oscillatoren, filters enz. geluidssignalen kunt opwekken. Electrotechnisch onderzoek ontwikkelde zich, totdat een frabrikant (Roland dacht ik) het aandurfde om als eerste op commerciële basis een echte synthesizer op de markt te zetten.
Analoge synthesizers bevatten, zoals de term al zegt, analoge componenten. Deze componenten zijn gevoelig voor temperatuur, slijtage, enz, enz, en daarom vertonen analoge componenten dus afwijkingen. Een analoge oscillator zal bijvoorbeeld nooit een wiskundig perfecte sinusgolf kunnen produceren. Voor een pulsgolf geldt hetzelfde, dit nog afgezien van het feit dat wiskundig gezien een pulsgolf geen continue functie is en dus nooit door een luidspreker ten gehore kan worden gebracht, hoe goed die luidspreker ook is....
Vanuit het oogpunt van de purist zijn analoge synthesizers slappe benaderingen van wiskundige perfectie.
Echter (en dat is het leuke), wat blijkt is dat het juist de afwijkingen in analoge componenten zijn die een synthesizer het warme, volle, organische, ranzige, vettige, levende geluid geven. Juist de afwijkingen in de componenten geven de synthesizer "muzikaal character".
Vanaf de jare '80 krijgt de analoge synthesizer concurrentie van een andere tak uit de electrotechniek: de digitale techniek. Yamaha introduceert de bekende DX7 synthesizer en naast de "klassieke" analoge synth, komen er steds meer digitale synthesizers op de markt.
In de jaren daarop ontwikkelde digitale techniek zich zeer snel. Kijk maar naar de inhaalrace die de computer heeft gemaakt. In het begin waren computers traag en was de geluidskwaliteit van de computer zo slecht dat analoge apparatuur veruit het beste was en bovendien betaalbaar. In tijd van nog geen 20 jaar heeft de computer een inhaalslag gemaakt en tegenwoordig levertde gemiddelde monitor een betere beeldkwaliteit dan de gemiddelde tv en zijn geluidkaarten die cd kwaliteit leveren standaard ingebouwd op het moederboard van een pc. tien jaar geleden moest je voor een geluidskaart die in de buurt kwam van de cd speler nog een vermogen leerleggen. Tegenwoordig gaat dat nergens meer over.
De ontwikkelingen in de digitale wereld hebben er voor gezorgd dat de kosten van digitale componenten begonnen te dalen. Dit ging zelfs zo ver dat tegenwoordig digitale componenten goedkoper zijn dan analoge. Dit had gevolgen voor het ontwerp van synthesizers. Fabrikanten van synthesizers stonden voor de keuze: wat is goedkoper?
1) Het ontwerpen en bouwen van een synth, bestaande uit analoge componenten? (De klassieke benadering dus)
of
2) Het ontwerpen en bouwen van een synth, bestaande uit digitale componenten?
Het ontwerpen van een synth die uit digitale componenten bestaat, gaat als volgt:
Men neme een aantal zeer slimme natuur-en wiskundigen. De natuurkundige gebruik je om het gedrag van analoge componenten zo goed mogelijk te onderzoeken. De wiskundige gebruik je om een wiskundig model op te stellen van het gedrag van analoge componenten.
Zodra een wiskundig model is opgesteld, kun je twee kanten op:
1) Je laat het model door een electrotechnicus vertalen in een logische schakeling, waarna diezelfde electrotechnicus een chip bouwt waar het model inzit. Die chip stop je in een plastic doos met wat knoppen erop en ziedaar: een synthesizer, waarin digitale componenten zijn gebruikt om analoge componenten zo goed mogelijk na te bootsen. Dergelijke synthesizers noemt men virtueel analoog en de voorbeelden zijn bekend: access virus, novation en inmiddels ook alesis sinds de introductie van de ion.
2) Je laat het model door een informaticus vertalen naar een verzameling algoritmen, opdat je van het model een computerprogramma kunt schrijven. Dit computer programma knoop je vervolgens vast aan een handige gebruikersinterface en aan een aantal geldende standaards zoals vst, dx en asio. Voila: de softsynth is gereed voor verkoop. Ook hier zijn er voorbeelden te over, denk maar aan native instruments, vanguard en vele anderen.
Nu moet je één ding even in de gaten hebben: Of er nu een softsynth of een virtueel analoge hardware synth ontworpen wordt, in beide gevallen begint het ontwerp met het opstellen van een wiskundig model van analoog gedrag. De vraag hoe de soft of hardware synth uiteindelijk klinkt, is in beginsel afhankelijk van de kwaliteit van dat model.
Heeft men het model eenmaal, dan kan men, zoals boven beschreven, twee kanten op en sommige fabrikanten doen dat ook: Access heeft haar hardware Virus, maar ook de virus plugin op powercore geluidskaarten. Novation heeft de K-station, maar ook de software versie, V-station. Verder heeft iedereen de ondergang van Hartmann meegemaakt, maar ook bij Hartmaan zie je hetzelfde: je kon destijds een echte hardware Neuron kopen (in feite een highly specialized pc., zoals ze notabene zelf hebben gezegd!!) en wat later kon je ook de plugin aanschaffen, uiteraard met zo'n geinig plastic controllertje erbij
...
In dit licht is het onbegrijpelijk, waarom Alesis nog geen software versie van de ion op de markt heeft gezet. Men heeft immers de wiskundige ontwerpfase er al op zitten en het omzetten van die wiskunde in een computerprogramma is relatief minder werk. Voor alesis zou het een goedkope en logische stap zijn. Ik neem dan ook aan dat Alesis eerst nog wat hardware wil verkopen en hoop dat het alsnog de plugin aanbiedt, uiteraard met meer polyfonie en effecten per part.
Ik denk dat, gezien het bovenstaande, het niet waarschijnlijk is dat er binnenkort convolutie softsynths van bestaande hardware synths op de markt zullen komen. Sterker nog, ik vind het hele convolutie verhaal een nepverhaal en mijn argument is het volgende:
Daar waar men probeert om de analoge werkelijkheid te modelleren teneinde dit in digitale techniek toe te passen, is men gedwongen wiskundige vereenvoudigingen aan te brengen. Het kan niet anders. Als je wilt weten hoe de reverb van een claxon in een tunnel klinkt, zit er niets anders op dan met een auto een tunnel in te rijden en op de claxon te duwen. Wat je dan hoort is uniek voor die specifieke claxon en die specifieke tunnel. Zodra je een reverb gaat namaken (of dat nu resulteert in een hardware bak zoals de Lexicon, of een plugin van de firma waves) is de werking van die machine (hard of software) hoe dan ook gebaseerd op een wiskundig model. Op een wiskundig vereenvoudigde idealisatie van de werkelijkheid.
Verbeteringen in de kwaliteit van reverbs, virtueel analoge synths, softsynths, distortion plugins, compressie plugins enz. enz. zullen altijd uit de wiskundige hoek komen. Het opnemen van het geluid van analoge componenten en het op een cd branden van alle mogelijke toestanden is onmogelijk, daar het zou betekenen dat je bij een "convolutie softsynth" miljarden dvd's zou moeten leveren die alle mogelijke toestanden zou bevatten.
Meer in het algemeen is het juist deze expontiele steiging van het aantal mogelijkheden die het ontwerp van digitale hardware en software fundamentele beperkingen oplegt. Het bouwen van een algoritme dat het gedrag van een analoog verschijnsel perfect nabootst is al een hels karwei, zoniet onmogelijk.
Maar daarna beginnen de problemen pas echt: hoe bouw je een algoritme dat op basis van het model de berekeningen waar dit model toe leidt in een zo kort mogelijk aantal stapjes (en derhalve een eindige hoeveelheid tijd!!) uitrekent? Daar ligt de uitdaging voor de informaticus en wiskundige.
Naarmate men steeds beter vat krijgt op de complexiteit van analoge verschijnselen plukken wij consumenten daar steeds meer vruchten van: softsynths worden beter, omdat men steeds beter begrijpt hoe men concepten uit de wiskunde zoals fourier analyse, rijen en reeksen theorie, differentiaal rekening, enz. enz moet combineren in eficiënte algoritmen (= chips en programma's).
3D spelletjes worden grafisch alsmaar beter. Waarom? Omdat men steeds beter begrijpt hoe men rekenkundig efficiënt het analoge verschijnsel licht kan combineren met takken uit de wiskunde die zich met geometrie bezighouden zoals de vectoranalyse. Een 3D spelletje kun je niet bouwen door een studio fysiek op te bouwen en vervolgens uit elke mogelijke invalshoek foto's te maken en die op een cd-rom te branden. Het aantal toestanden is daarvoor te groot.
Binnen informatica en wiskunde zijn er complete takken van wetenschap ontstaan die zich met het complexiteitsvraagstuk bezighouden. Zo hebben de informatietheorie van Claude E. Shannon (1949) en de complexiteitrekening van Andrei Kolmochorov laten zien tot in welke mate een hoeveelheid informatie zonder verlies van informtatie te comprimeren is. Met het gedachtengoed van deze twee heren wordt ook inzichtelijk waarom de claim van Roel Pieper dat hij een film op dvd kwaliteit zonder informatieverlies kon terugbrengen tot een rom chip van 1000 bytes volslagen onzin is.
Verder wordt in de informatica gebruik gemaakt van de limiet van Bachmann en Landua om van een algoritme de zogenaamde O notatie te kunnen opstellen. De O notatie zegt iets over de efficiëntie van een gegeven een algoritme: Hoeveel berekeningen genereert een algoritme bij een bepaalde taakomvang en is derhalve het probleem met een eindig aantal berekeningen oplosbaar?
Schiet het maar lek
Groeten,
Merlin.