Convolutie softsynth.

Catscan

Electronic sounddesigner
Lid sinds
15 april 2002
Berichten
3.168
Locatie
Studio.
citaat:
Origineel geplaatst door Catscan
Wanneer komt nou de eerste convolutie synth want de huidige emulaties klinken lang nog niet het zelfde als het orgineel.
moest dit ff kwijt......


Misschien is dit wel een aparte thread waard? vind het wel interessant..

Maareh, heb je al gedacht aan de latentie die je krijgt bij een convolutie synth? of er moet wel een sjieke processor e.d. ingebouwd gaan worden wil het allemaal real-time en goed klinken.

Onmogelijk is het niet denk ik. Hier een mooi (en ingewikkeld ) artikel over convolutie.


Marijn:Ik heb alleen maar een vermoeden wat je met een convolutie synth bedoelt, maar als dat klopt dan heb ik helaas slecht nieuws voor je.

Een convolutie is een perfecte modellering van een lineair systeem. De reverb van een zaal bijvoorbeeld is een bijna perfect lineair systeem en daarom heel goed te modelleren met een convolutie. De elektronica van (vrijwel?) elke analoge synth is echter verre van lineair. Die niet-lineariteit zorgt juist voor het karakter, de 'diepte' en 'warmte', van de analoge synths.

Een emulatie gebaseerd op enkel convoluties zou dus redelijk bagger klinken. Ook alle niet-lineariteiten van de synth moeten meegenomen worden.

Het zou me zelfs niet verbazen als veel van de huidige generaties softsynths convoluties gebruiken voor bijvoorbeeld filter-modellen, met daar bovenop nog de nodige extra trucjes om het tenminste een beetje op het origineel te laten lijken.


Dus hier bij:)
 
Marijn praat over een lineair systeem maar als je bv het electronica gedeelte neemt en je neemt van elk onderdeel het karakter(IR) van zoals weerstanden condesators etc.
Dat zijn allemaal lineaireonderdelen.

Dan kan je precies een synth na bouwenmaar waarschijnlijk vreet dit mega veel cpu maar toch?
 
Claimde Korg dat niet gedaan te hebben met de Legacy serie?
 
Origineel geplaatst door Catscan
Marijn praat over een lineair systeem maar als je bv het electronica gedeelte neemt en je neemt van elk onderdeel het karakter(IR) van zoals weerstanden condesators etc.
Dat zijn allemaal lineaireonderdelen.

Dan kan je precies een synth na bouwenmaar waarschijnlijk vreet dit mega veel cpu maar toch?

Bij benadering zijn weerstanden, condensatoren en spoelen lineaire onderdelen, inderdaad. (Een diode bijvoorbeeld is dat zeker niet) Maar dat is slechts bij benadering. Er is onder elke omstandigheid een afwijking van het lineaire gedrag en onder extreme condities wordt die afwijking veel groter (denk overdrive, ruis). En zoals ik eerder zei is het juist de niet lineariteit die het karakter aan een synth geeft.

Het lineaire deel kost redelijk veel CPU, maar je kan elke combinatie van lineaire systemen omschrijven tot één lineair systeem en dus één convolutie. Dat maakt het nog wel te doen. De niet-lineariteiten kan je vervolgens één voor één gaan toevoegen om het steeds realistischer te maken. Voordat je het geluid van een synth helemaal hebt nagemaakt moet je zelfs de voeding, de baantjes op de printplaat en slijtage van de componenten volledig modelleren.

Daarnaast kan je een systeem alleen met een convolutie modelleren als de impuls respons gelijk blijft. Bij bijvoorbeeld een filter sweep is dat niet het geval en dus kan dat al niet meer.

En geloof me maar, de makers van Softsynths weten veel meer van elektronica en het simuleren daarvan dan jij en ik. En ze zullen zich ook heel goed bewust zijn van de imperfecties van hun producten en wat daar (niet) aan te doen is. Dus ik verwacht niet dat er plotseling een revolutionair type emulate gaat komen dat perfect oude analoge synths kan nadoen.
 
Inderdaad, een emulatie van het volledig analoge gebeuren zal niet gebeuren, het blijven altijd moment opnames van de stand(en) die het analoge apparaat/de te simuleren ruimte op dat moment heeft.

Maar laat het dan iig een betere emulatie opleveren dan de huidige softsynths, dan heb je er nog wat aan. Dus wat dat betreft zou er toch wel een vooruitgang in het vooruitzicht moeten liggen?
 
Voordat je het geluid van een synth helemaal hebt nagemaakt moet je zelfs de voeding, de baantjes op de printplaat en slijtage van de componenten volledig modelleren

Huh? hoe doe je dat dan.. een baan op de print, en slijtage van componenten opzichzelf 'maken' toch geen geluid?

Met het steeds maar weer opnemen van alle standen, alle lineariteiten, pak je die zaken toch automatisch mee?

Als je het helemaal gek maakt, kan je toch zelfs een morph doen van 1 synth die 'net uit de doos komt' naar eentje die al verroest is, afgeragd en onder bier en as zit! het is toch maar net hoeveel standen je bereid bent op te nemen?

Het lineaire deel kost redelijk veel CPU, maar je kan elke combinatie van lineaire systemen omschrijven tot één lineair systeem en dus één convolutie
In eerdere threads wordt ook gesproken over dynamische convolutie, is dat wat je hiermee bedoelt?
 
Origineel geplaatst door Sander02
Inderdaad, een emulatie van het volledig analoge gebeuren zal niet gebeuren, het blijven altijd moment opnames van de stand(en) die het analoge apparaat/de te simuleren ruimte op dat moment heeft.

Maar laat het dan iig een betere emulatie opleveren dan de huidige softsynths, dan heb je er nog wat aan. Dus wat dat betreft zou er toch wel een vooruitgang in het vooruitzicht moeten liggen?

Ik heb zelf nog nooit een softsynth geklust of ontleed, maar ik heb een heel sterk vermoeden dat waar we het hier over hebben precies is wat een moderne softsynth al doet, dus dat er niet zo heel veel vooruitgang in het vooruitzicht ligt. Behalve natuurlijk doordat CPU's steeds sneller worden en er dus steeds meer van de eigenschappen kunnen nabootsen. De afgelopen jaren en vooral het afgelopen jaar zie je in supercomputers dat de CPU steeds vaker versterking krijgt van een FPGA, een digitale chip die via software geconfigureerd kan worden om heel snel een gekozen soort berekeningen vaak achter elkaar uit te voeren. Dit soort chips is volgens mij heel erg geschikt voor 'softsynths', die op die manier eigenlijk een digitale hardware synth worden. Daar zit nog wel veel ruimte voor ontwikkeling, als dat soort chips ook in gewone PCs terecht gaan komen.

Huh? hoe doe je dat dan.. een baan op de print, en slijtage van componenten opzichzelf 'maken' toch geen geluid?

Nee ze maken geen geluid, maar beinvloeden het wel, net als alle componenten behalve een oscillator en ruisbron in een standaard analoge synth. De banen op de printplaat hebben een capaciteit en een weerstand, daardoor werken ze dus als lowpass filter. Daarnaast werken ze als ruisbron, distortie en antenne voor signalen elders in de synth of de omgeving. En de meeste van die eigenschappen zijn temperatuur afhankelijk. Als er meer stroom doorheen loopt warmen ze op en veranderen de eigenschappen dus weer etc.

Slijtage verandert de eigenschappen en versterkt vooral de afwijkingen van het perfecte lineaire gedrag.

Met het steeds maar weer opnemen van alle standen, alle lineariteiten, pak je die zaken toch automatisch mee?

Ja en nee. Ten eerste zijn het lang niet allemaal lineariteiten, ten tweede zijn er zo veel van die factoren dat je de computer helemaal gek maakt. Op zich voldoet een synth volledig aan de wetten van de Physica, dus in theorie is alles te modelleren. Maar voordat we de quantummechanische golfvergelijking numeriek kunnen oplossen voor elk elektron in de synth, zijn we wel een paar eeuwen verder. En dan nog hebben we geen perfecte simulatie, maar komen we wel heeel dicht in de buurt ;).

Als je het helemaal gek maakt, kan je toch zelfs een morph doen van 1 synth die 'net uit de doos komt' naar eentje die al verroest is, afgeragd en onder bier en as zit! het is toch maar net hoeveel standen je bereid bent op te nemen?

Gaaf plan, moet inderdaad kunnen, maar is weer niet zo makkelijk, helaas ;{.

In eerdere threads wordt ook gesproken over dynamische convolutie, is dat wat je hiermee bedoelt?

Nee, dat is wat je nodig hebt als je bijvoorbeeld een filter wilt modelleren waarvan de cutoff en/of resonantie in de tijd veranderen. Je pakt dan theorie die normaal alleen toepasbaar is op lineaire, tijd-invariante systemen en gaat die een klein beetje aanpassen zodat het ook toepasbaar is op bijna-lineaire, in de tijd varierende systemen, zonder dat de berekeningen heel veel in complexiteit toenemen.
 
complexiteit

complexiteit

Hallo allemaal,


Laat ik mijn gedachten er ook eens bijplaatsen...


Bij mijn weten is de synthesizer ontstaan in de laboratoria van electrotechnici die erachter kwamen dat je met oscillatoren, filters enz. geluidssignalen kunt opwekken. Electrotechnisch onderzoek ontwikkelde zich, totdat een frabrikant (Roland dacht ik) het aandurfde om als eerste op commerciële basis een echte synthesizer op de markt te zetten.

Analoge synthesizers bevatten, zoals de term al zegt, analoge componenten. Deze componenten zijn gevoelig voor temperatuur, slijtage, enz, enz, en daarom vertonen analoge componenten dus afwijkingen. Een analoge oscillator zal bijvoorbeeld nooit een wiskundig perfecte sinusgolf kunnen produceren. Voor een pulsgolf geldt hetzelfde, dit nog afgezien van het feit dat wiskundig gezien een pulsgolf geen continue functie is en dus nooit door een luidspreker ten gehore kan worden gebracht, hoe goed die luidspreker ook is....

Vanuit het oogpunt van de purist zijn analoge synthesizers slappe benaderingen van wiskundige perfectie.
Echter (en dat is het leuke), wat blijkt is dat het juist de afwijkingen in analoge componenten zijn die een synthesizer het warme, volle, organische, ranzige, vettige, levende geluid geven. Juist de afwijkingen in de componenten geven de synthesizer "muzikaal character".

Vanaf de jare '80 krijgt de analoge synthesizer concurrentie van een andere tak uit de electrotechniek: de digitale techniek. Yamaha introduceert de bekende DX7 synthesizer en naast de "klassieke" analoge synth, komen er steds meer digitale synthesizers op de markt.

In de jaren daarop ontwikkelde digitale techniek zich zeer snel. Kijk maar naar de inhaalrace die de computer heeft gemaakt. In het begin waren computers traag en was de geluidskwaliteit van de computer zo slecht dat analoge apparatuur veruit het beste was en bovendien betaalbaar. In tijd van nog geen 20 jaar heeft de computer een inhaalslag gemaakt en tegenwoordig levertde gemiddelde monitor een betere beeldkwaliteit dan de gemiddelde tv en zijn geluidkaarten die cd kwaliteit leveren standaard ingebouwd op het moederboard van een pc. tien jaar geleden moest je voor een geluidskaart die in de buurt kwam van de cd speler nog een vermogen leerleggen. Tegenwoordig gaat dat nergens meer over.

De ontwikkelingen in de digitale wereld hebben er voor gezorgd dat de kosten van digitale componenten begonnen te dalen. Dit ging zelfs zo ver dat tegenwoordig digitale componenten goedkoper zijn dan analoge. Dit had gevolgen voor het ontwerp van synthesizers. Fabrikanten van synthesizers stonden voor de keuze: wat is goedkoper?

1) Het ontwerpen en bouwen van een synth, bestaande uit analoge componenten? (De klassieke benadering dus)

of

2) Het ontwerpen en bouwen van een synth, bestaande uit digitale componenten?

Het ontwerpen van een synth die uit digitale componenten bestaat, gaat als volgt:

Men neme een aantal zeer slimme natuur-en wiskundigen. De natuurkundige gebruik je om het gedrag van analoge componenten zo goed mogelijk te onderzoeken. De wiskundige gebruik je om een wiskundig model op te stellen van het gedrag van analoge componenten.

Zodra een wiskundig model is opgesteld, kun je twee kanten op:

1) Je laat het model door een electrotechnicus vertalen in een logische schakeling, waarna diezelfde electrotechnicus een chip bouwt waar het model inzit. Die chip stop je in een plastic doos met wat knoppen erop en ziedaar: een synthesizer, waarin digitale componenten zijn gebruikt om analoge componenten zo goed mogelijk na te bootsen. Dergelijke synthesizers noemt men virtueel analoog en de voorbeelden zijn bekend: access virus, novation en inmiddels ook alesis sinds de introductie van de ion.

2) Je laat het model door een informaticus vertalen naar een verzameling algoritmen, opdat je van het model een computerprogramma kunt schrijven. Dit computer programma knoop je vervolgens vast aan een handige gebruikersinterface en aan een aantal geldende standaards zoals vst, dx en asio. Voila: de softsynth is gereed voor verkoop. Ook hier zijn er voorbeelden te over, denk maar aan native instruments, vanguard en vele anderen.

Nu moet je één ding even in de gaten hebben: Of er nu een softsynth of een virtueel analoge hardware synth ontworpen wordt, in beide gevallen begint het ontwerp met het opstellen van een wiskundig model van analoog gedrag. De vraag hoe de soft of hardware synth uiteindelijk klinkt, is in beginsel afhankelijk van de kwaliteit van dat model.
Heeft men het model eenmaal, dan kan men, zoals boven beschreven, twee kanten op en sommige fabrikanten doen dat ook: Access heeft haar hardware Virus, maar ook de virus plugin op powercore geluidskaarten. Novation heeft de K-station, maar ook de software versie, V-station. Verder heeft iedereen de ondergang van Hartmann meegemaakt, maar ook bij Hartmaan zie je hetzelfde: je kon destijds een echte hardware Neuron kopen (in feite een highly specialized pc., zoals ze notabene zelf hebben gezegd!!) en wat later kon je ook de plugin aanschaffen, uiteraard met zo'n geinig plastic controllertje erbij:)...

In dit licht is het onbegrijpelijk, waarom Alesis nog geen software versie van de ion op de markt heeft gezet. Men heeft immers de wiskundige ontwerpfase er al op zitten en het omzetten van die wiskunde in een computerprogramma is relatief minder werk. Voor alesis zou het een goedkope en logische stap zijn. Ik neem dan ook aan dat Alesis eerst nog wat hardware wil verkopen en hoop dat het alsnog de plugin aanbiedt, uiteraard met meer polyfonie en effecten per part.

Ik denk dat, gezien het bovenstaande, het niet waarschijnlijk is dat er binnenkort convolutie softsynths van bestaande hardware synths op de markt zullen komen. Sterker nog, ik vind het hele convolutie verhaal een nepverhaal en mijn argument is het volgende:

Daar waar men probeert om de analoge werkelijkheid te modelleren teneinde dit in digitale techniek toe te passen, is men gedwongen wiskundige vereenvoudigingen aan te brengen. Het kan niet anders. Als je wilt weten hoe de reverb van een claxon in een tunnel klinkt, zit er niets anders op dan met een auto een tunnel in te rijden en op de claxon te duwen. Wat je dan hoort is uniek voor die specifieke claxon en die specifieke tunnel. Zodra je een reverb gaat namaken (of dat nu resulteert in een hardware bak zoals de Lexicon, of een plugin van de firma waves) is de werking van die machine (hard of software) hoe dan ook gebaseerd op een wiskundig model. Op een wiskundig vereenvoudigde idealisatie van de werkelijkheid.

Verbeteringen in de kwaliteit van reverbs, virtueel analoge synths, softsynths, distortion plugins, compressie plugins enz. enz. zullen altijd uit de wiskundige hoek komen. Het opnemen van het geluid van analoge componenten en het op een cd branden van alle mogelijke toestanden is onmogelijk, daar het zou betekenen dat je bij een "convolutie softsynth" miljarden dvd's zou moeten leveren die alle mogelijke toestanden zou bevatten.

Meer in het algemeen is het juist deze expontiele steiging van het aantal mogelijkheden die het ontwerp van digitale hardware en software fundamentele beperkingen oplegt. Het bouwen van een algoritme dat het gedrag van een analoog verschijnsel perfect nabootst is al een hels karwei, zoniet onmogelijk.
Maar daarna beginnen de problemen pas echt: hoe bouw je een algoritme dat op basis van het model de berekeningen waar dit model toe leidt in een zo kort mogelijk aantal stapjes (en derhalve een eindige hoeveelheid tijd!!) uitrekent? Daar ligt de uitdaging voor de informaticus en wiskundige.
Naarmate men steeds beter vat krijgt op de complexiteit van analoge verschijnselen plukken wij consumenten daar steeds meer vruchten van: softsynths worden beter, omdat men steeds beter begrijpt hoe men concepten uit de wiskunde zoals fourier analyse, rijen en reeksen theorie, differentiaal rekening, enz. enz moet combineren in eficiënte algoritmen (= chips en programma's).
3D spelletjes worden grafisch alsmaar beter. Waarom? Omdat men steeds beter begrijpt hoe men rekenkundig efficiënt het analoge verschijnsel licht kan combineren met takken uit de wiskunde die zich met geometrie bezighouden zoals de vectoranalyse. Een 3D spelletje kun je niet bouwen door een studio fysiek op te bouwen en vervolgens uit elke mogelijke invalshoek foto's te maken en die op een cd-rom te branden. Het aantal toestanden is daarvoor te groot.

Binnen informatica en wiskunde zijn er complete takken van wetenschap ontstaan die zich met het complexiteitsvraagstuk bezighouden. Zo hebben de informatietheorie van Claude E. Shannon (1949) en de complexiteitrekening van Andrei Kolmochorov laten zien tot in welke mate een hoeveelheid informatie zonder verlies van informtatie te comprimeren is. Met het gedachtengoed van deze twee heren wordt ook inzichtelijk waarom de claim van Roel Pieper dat hij een film op dvd kwaliteit zonder informatieverlies kon terugbrengen tot een rom chip van 1000 bytes volslagen onzin is.
Verder wordt in de informatica gebruik gemaakt van de limiet van Bachmann en Landua om van een algoritme de zogenaamde O notatie te kunnen opstellen. De O notatie zegt iets over de efficiëntie van een gegeven een algoritme: Hoeveel berekeningen genereert een algoritme bij een bepaalde taakomvang en is derhalve het probleem met een eindig aantal berekeningen oplosbaar?

Schiet het maar lek;)

Groeten,


Merlin.
 
Origineel geplaatst door Marijn
Nee ze maken geen geluid, maar beinvloeden het wel, net als alle componenten behalve een oscillator en ruisbron in een standaard analoge synth. De banen op de printplaat hebben een capaciteit en een weerstand, daardoor werken ze dus als lowpass filter. Daarnaast werken ze als ruisbron, distortie en antenne voor signalen elders in de synth of de omgeving. En de meeste van die eigenschappen zijn temperatuur afhankelijk. Als er meer stroom doorheen loopt warmen ze op en veranderen de eigenschappen dus weer etc.
Slijtage verandert de eigenschappen en versterkt vooral de afwijkingen van het perfecte lineaire gedrag.

Het gedrag van alle componenten, printplaatontwerp enzo zitten al beschreven in je impulse response, dus daar hoef je geen rekening meer mee te houden. Temperatuursafhankelijkheid en veroudering is wel sprake van, maar is dit zinnig om te modeleren? Bij de temperatuur ontstaat er een na een tijdje een evenwicht, de temperatuur van de componenten is dan nagenoeg constant. Als je dan de response meet, weet je voldoende. De veroudering van componenten zit ook al in je response.
Maar is convolutie wel zo handig om het gedrag van een synth te beschrijven. Convolutie lijkt me handig bij een statisch systeem(bijvoorbeeld een ruimte of een vca). Maar een filter is verre van statisch, de respons verandert want die is anders bij elke kantelfrequentie en kwaliteitsfactor. Dus wordt dan een aantal responses nemen en hiertussen interpoleren?
Geldt dit ook niet voor alle andere generende delen in een synthesizer, zoals de vco's, lfo's, eg's etc.?
Of mis ik iets?
 
Volgens mij is er nog geen enkele softsynth die echt qua modellatie echte onderdelen gaat emuleren om zo bij het 'orginele' geluid te komen. Of ze doen dit wel gedeeltelijk maar dan nog steeds via een vereenvoudiging omdat het anders te zwaar wordt voor de hedendaagse systemen.
De techniek is er al wel en doe wordt ook toegepast in Yamaha apparatuur zover ik weet. Voornamelijk effecten hebben we het dan over.
Kan ook zijn dat er nog meer bedrijven hier mee bezig zijn.
En qua convolutie is er alleen nog een compressor van Focusrite op de markt.
Dat kreng kost trouwens ruim 3 ruggen dus kun je wel nagaan dat daar toch een flink aantal DSP's inzitten om de boel te berekenen.

Maar om dat convolutie verhaal in te steken. Volgens mij kun je mbv dynamische convolutie toch een heel eind komen. Want er wordt vooralsnog uitgegaan van lineaire modellen. Maar als je een verzameling lineare modellen hebt kan met mbv interpolatie ook de verzameling bekende modellen aanvullen en zo met flink wat rekenkracht toch een volledige set nodig modellen tot je beschikking hebben om je convolutie uit te rekenen. En wie weet wel een hele nieuwe stap zetten in de modelatie van oscilattoren of wellicht filters.

Maar beide technieken zijn vooralsnog in ontwikkelingsfase en ik neem aan dat in dit geval de beperkende factor de rekenkracht zal zijn. Maar als je al bijv een echt goed klinkende emulatie van een minimoog zou maken waar je met een blinde test hem niet van een orgineel zou kunnen onderscheiden zou al een gigantische stap zijn. Maar dat is gewoon een kwestie van tijd zou ik zeggen.
 
Leuke speculaties, maar volgens mij is convolutie per definitie een bewerking van een bestaand signaal (namelijk de vermenigvuldiging van een sample met alle afzonderlijke sample-waardes van een andere sample, waarna dit gesommeerd wordt). Daarmee is het dus nooit een manier om een signaal op te wekken, maar je moet er iets in stoppen, om er wat uit te krijgen.

Je zou dan wel met een (mathematisch perfecte) golfvorm kunnen beginnen en die middels convolutie kunnen veranderen, maar ik denk niet dat het goed mogelijk is om een vco te modelleren met convolutie (hij is immers niet zo goed 'sweepbaar' met een testsignaal); al is dit meer een vermoeden dan een vaste overtuiging
 
Back
Top