Wat voor nieuw concept zou jij graag willen zien?

krautrock1958

Gepokt en gemazeld
Lid sinds
22 september 2016
Berichten
7.059
Locatie
Apeldoorn
Naar aanleiding van het Valkyrie draadje waar ik de opmerking plaatste dat het wel geinig zou zijn wat mensen graag zouden zien wat er nog niet is bij deze dan het draadje.
Het mooiste is natuurlijk als je met iets komt wat echt een hele nieuwe benadering is qua synthese met geluid of een goede doorontwikkeling op iets bestaands mag natuurlijk ook.

Ik trap af met twee dingen die ik graag zou willen zien en er volgens mij nog niet of vrijwel niet zijn.

Als eerste een hardware spectral synthesizer/workstation.
Een soort Iris2 met een scherm met verschillende tabbladen waarop je kan zien wat je doet.
Met daaraan gekoppeld een sequencer en een effektenafdeling en ook een soort melodyne achtige mogelijkheid om audio te manipuleren.
Zeg maar een synthesizer die ook gebruik maakt van intelligente algoritmes.

En als we het dan toch over algoritmes hebben zou een hardware synthesizer met artificiële intelligentie ook wel een mooi concept zijn.
Dan zie ik iets voor me als een synthesizer waarbij er tussen jezelf en de AI met een keuzemenu een soort samenwerking ontstaat.
Bijv: je begint ergens mee en via een keuze menu geef je aan dat je bijv een ritmische interpretatie wilt of iets ambiënt achtigs en AI komt met een paar voorbeelden zodat er op die manier een soort vraag en antwoord ontstaat.

Ik zou ook graag zien dat zowel bij de eerste als bij de tweede er een hologram geprojekteerd wordt waarbij je in 3d de golfvorm of de wavetable voor je kan zien, eventueel met een bril zoals augmented reality en dat je kan in- en uitzoomen zodat je op details in kan gaan en kan aanpassen, korter en langer kan maken in tijd, de envelopes kan manipuleren enz en het zou helemaal aardig zijn als je dit in een soort van virtuele ruimte met meerdere mensen kan delen zodat je interactief met elkaar iets creëert. 8)


Oh ja: en als ik dan toch wensen mag uitspreken; een goede implementatie voor midicontrollers.
Want nu heb je af en toe controllers die niet goed of maar half werken of zoals bij Roli je eerst een stuk of 8 midi channels moet aanzetten om alle bewegingen te kunnen registreren.
Het zou een soort herenakkoord moeten worden dat iedere fabrikant die een controller uitbrengt dan ook meteen een goede implementatie integreert voor ie op de markt komt zodat als je 'm op Ableton of Cubase aansluit het meteen allemaal werkt.
Dus niet een eerst template kiezen maar gewoon automatisch plug and play en daarnaast er een manual setting mogelijkheid blijft voor diegenen die specifieke wensen hebben. :okdan:
 
Laatst gewijzigd:
...en AI komt met een paar voorbeelden zodat er op die manier een soort vraag en antwoord ontstaat.

totdat de synth door zijn leercapaciteit te intelligent is geworden en op basis van het aantal listens op spotify het besluit neemt dat jij geen ambient meer wil maken, maar muziek ala 'boef' :D
 
totdat de synth door zijn leercapaciteit te intelligent is geworden en op basis van het aantal listens op spotify het besluit neemt dat jij geen ambient meer wil maken, maar muziek ala 'boef'

Haha, ja grappig wel:D je zou dan wel een soort reset knop of herstelpunt moeten hebben zodat je naar de vorige setting gaat.
 
totdat de synth door zijn leercapaciteit te intelligent is geworden en op basis van het aantal listens op spotify het besluit neemt dat jij geen ambient meer wil maken, maar muziek ala 'boef' :D
LOL :D
 
En als we het dan toch over algoritmes hebben zou een hardware synthesizer met artificiële intelligentie ook wel een mooi concept zijn.
Dan zie ik iets voor me als een synthesizer waarbij er tussen jezelf en de AI met een keuzemenu een soort samenwerking ontstaat.
Bijv: je begint ergens mee en via een keuze menu geef je aan dat je bijv een ritmische interpretatie wilt of iets ambiënt achtigs en AI komt met een paar voorbeelden zodat er op die manier een soort vraag en antwoord ontstaat.

Ik zou ook graag zien dat zowel bij de eerste als bij de tweede er een hologram geprojekteerd wordt waarbij je in 3d de golfvorm of de wavetable voor je kan zien, eventueel met een bril zoals augmented reality en dat je kan in- en uitzoomen zodat je op details in kan gaan en kan aanpassen, korter en langer kan maken in tijd, de envelopes kan manipuleren enz en het zou helemaal aardig zijn als je dit in een soort van virtuele ruimte met meerdere mensen kan delen zodat je interactief met elkaar iets creëert. 8)
Ik denk dat het eerste niet meer zo heel lang op zich laat wachten. Geef het vijf jaar om te zien waar concrete uitwerkingen dan staan.

Het tweede, leuk idee. Maar ik denk dat hier voor het beste resultaat nog een stap moet worden genomen. Het ligt in het verlengde van het eerste, met AI worden golfvormen, envelopes, etc. omgezet in "objecten" die gemakkelijker en intuitiever te manipuleren zijn. Het is nu nog moeilijk voor te stellen hoe dat er precies uit zal zien, maar ik stel me het voor als een soort manipuleerbare "lego-blokjes" die je in een virtuele ruimte met elkaar kunt delen en zo interactief iets kan bouwen.
 
Ik zou wel iets willen waarmee je geluid en muziek letterlijk kunt bedenken. Direct afgetapt/geconverteerd vanuit de hersenen zeg maar.
 
Ik zou wel iets willen waarmee je geluid en muziek letterlijk kunt bedenken. Direct afgetapt/geconverteerd vanuit de hersenen zeg maar.

Een soort EEG/ECG die gelijk op de synthesizer vertaald wordt?
Het zijn tenslotte allemaal waveforms.
 
Het klinkt wel erg onsamenhangend wat mij betreft.

Nog zoiets maar dit klinkt wel ietsje prettiger

 
Een soort synplant in hardware met een zooi knoppen. Elk knopje doet iets, maar niet een technische functie (cutoff filter open/dicht) maar meer functioneler (een knop om het geluid duisterder te maken, aggressiever, liever, mooier etc). En dan op de synplant manier een branch kunnen kiezen en daar mee verder gaan
 
Een soort EEG/ECG die gelijk op de synthesizer vertaald wordt?
Het zijn tenslotte allemaal waveforms.

Ik weet niet hoe het zou moeten werken, als ik aan muziek denk produceer ik wel hersengolven maar als je deze vervolgens omzet in geluid klinkt het waarschijnlijk meer naar experimentele Kyma herrie dan de mooie warme harmonische symfonieën die ik tussen mijn oren maak :D

Het zal dus van dieper getapt moeten worden, en de vraag is met wat voor technologie dat zou kunnen en in wel(k) de(e)l(en) van de hersenen het wordt opgewekt en hoe je dit dan vervolgens kunt converteren naar iets dat echt klinkt als de muziek die je in gedachten had. Met alleen een signaal van hersenactiviteit gaat het waarschijnlijk niet lukken.
 
Het zal dus van dieper getapt moeten worden, en de vraag is met wat voor technologie dat zou kunnen en in wel(k) de(e)l(en) van de hersenen het wordt opgewekt en hoe je dit dan vervolgens kunt converteren naar iets dat echt klinkt als de muziek die je in gedachten had. Met alleen een signaal van hersenactiviteit gaat het waarschijnlijk niet lukken.
Ja, dat zal nog niet zo eenvoudig zijn om hersensignalen te decoderen naar muziek. Waarschijnlijk zijn er verschillende gebieden in de hersenen betrokken bij een mentale voorstelling van geluid en muziek, dat maakt het ook lastig.

En er is mogelijk een praktisch probleem, wat als indirecte methoden als MRI niet werken om de hersenen te "meten" en je (veel) elektroden rechtstreeks diep in de hersenen moet prikken. Iemand die zich als vrijwilliger wil aanmelden? lol :D
 
Uit je hersenen en spieren komt RUIS.
Eigenlijk als een enorme hoeveelheid data.
In de Kyma draad demonstreerde ik hoe ruis te maken van uit ladingen sinussen, maar ook vanuit impulsen. Een systeem is zo krachtig als de hoeveelheid manieren om ruis te produceren aan boord van dit systeem is.
In de jaren 80 experimenteerde ik met brain-scanners die spier en hersen signalen omzette naar midi. En inderdaad, herrie. Deze signalen konden ook gefilterd worden naar toonsoorten. Ad Visser deed toen meer de zweverige kant.
Ik deed daar andere soorten experimenten mee.
10 jaar geleden werden mijn hersenen, en die van Pavle Mihalic, in het LUMC gescanned. Dit met de fijne bijkomstigheid dat alles in orde was.
We kregen deze scans mee in ASCI code (ruisachtigen) waarvan ik dus audiokunst maakte voor dit project:
http://www.9thcontinent.nl/M-O-T-I-O-N-graphics.

Witte Ruis zijn alle frequenties in sinusvorm. Of als micro articulaties, impulsen als een frequentie wolk. Men zal dan een filter moeten maken die de omgezette data in een gewenste vorm zal kunnen gieten.
Een internet zoekmachine doet ongeveer zoiets al op een ander vlak.
 
Laatst gewijzigd:
Ik zag een tijdje geleden wel dat ze door reverse-engineering van hersensignalen een heel aardige benadering konden maken van wat iemand zag. Volgens mij keek de proefpersoon naar een film, en kon je op basis van de gegevens die ze uit de hersengolven destilleerden die film ook echt herkennen. Ik zal eens kijken of ik het kan vinden.

Edit: gevonden

 
Ik zou wel iets willen waarmee je geluid en muziek letterlijk kunt bedenken. Direct afgetapt/geconverteerd vanuit de hersenen zeg maar.
Na wat zoeken kwam ik nieuw onderzoek tegen, misschien dat dit toch 'ns mogelijk gaat worden, zonder elektroden diep in je hersenen te hoeven prikken. ;) Hier het onderzoek, waarbij men muzikale stukken kan herkennen uit de data van een fMRI.

In het artikel valt te lezen: "The combination of encoding and decoding models in the musical domain has the potential to extend our comprehension of how complex musical information is structured in the human auditory cortex. This will foster the development of models that can ultimately decode music from brain activity ..."

Dus, wie weet! :)

Edit:
Ik zag een tijdje geleden wel dat ze door reverse-engineering van hersensignalen een heel aardige benadering konden maken van wat iemand zag.
Ja, dit is iets soortgelijks, er zit dus vooruitgang in dit soort onderzoek.
 
Laatst gewijzigd:
een pci kaart met daarop analoge filters en vca's die je direct kunt gebruiken in je daw. Bv 6 x een vst polychainen met voor iedere voice een analoog filter.

Die filters vca's en drive kun je dan gebruiken hoe jr wilt. Effe een drumbeat een crunchy randje geven een fm synth Of een wavetable met analoge filters.
 
Na wat zoeken kwam ik nieuw onderzoek tegen, misschien dat dit toch 'ns mogelijk gaat worden, zonder elektroden diep in je hersenen te hoeven prikken. ;) Hier het onderzoek, waarbij men muzikale stukken kan herkennen uit de data van een fMRI.

In het artikel valt te lezen: "The combination of encoding and decoding models in the musical domain has the potential to extend our comprehension of how complex musical information is structured in the human auditory cortex. This will foster the development of models that can ultimately decode music from brain activity ..."

Dus, wie weet! :)

Edit:
Ja, dit is iets soortgelijks, er zit dus vooruitgang in dit soort onderzoek.

Interessant!
 
Een verwisselbaar filter sectie, met alle filters die ooit zijn uitgevonden. Hoef je, zoals bij de boomstars niet steeds een ander kastje te kopen, alleen omdat er een ander filter aanhangt. Misschien dat fpga uitkomst kan brengen ?!
 
Een verwisselbaar filter sectie, met alle filters die ooit zijn uitgevonden. Hoef je, zoals bij de boomstars niet steeds een ander kastje te kopen, alleen omdat er een ander filter aanhangt. Misschien dat fpga uitkomst kan brengen ?!
Het zal niet meevallen om analoge filters op die manier te creëren. Als het al lukt om een redelijk aantal filters te simuleren in een enkele implementatie, dan blijf je het punt houden hoe goed de simulatie is, objectief en vooral subjectief bekeken.

Een andere benadering komt misschien als de rekenkracht van computers flink groter gaat worden in de toekomst. Het is mogelijk om analoge schakelingen te simuleren met behulp van software. Met brute rekenkracht moet het mogelijk zijn om dan complete schema's van synths in te voeren en die in realtime te simuleren, als de software nauwkeurig het gedrag van individuele componenten kan berekenen en hun wisselwerking. Maar ook dan zal er ongetwijfeld discussie ontstaan hoe goed de simulatie is tov het origineel.
 
Een andere benadering komt misschien als de rekenkracht van computers flink groter gaat worden in de toekomst. Het is mogelijk om analoge schakelingen te simuleren met behulp van software. Met brute rekenkracht moet het mogelijk zijn om dan complete schema's van synths in te voeren en die in realtime te simuleren, als de software nauwkeurig het gedrag van individuele componenten kan berekenen en hun wisselwerking. Maar ook dan zal er ongetwijfeld discussie ontstaan hoe goed de simulatie is tov het origineel.

Dat is in feite wat Roland al doet met hun ACB techniek, inclusief bijbehorende discussies.
 
Back
Top