Enquête rond interactieve muziekproductie (met giveaway!)

Blaas controllers worden nergens genoemd.
Terwijl dit een nauwkeurige manier van invoer is.
Voor toonhoogte als wel voor volume of bijvoorbeeld lowpass filter.
Volume pedalen, voetpedalen, voetpedalen-orgel.
Licht onderbreking met : hand, voet, lichaam, hoofd. (laser-harp)
Ik kwam reeds één of twee voorbeelden van blazers tegen, echter niet gedacht dat ze ook veel gebruikt worden. Heb jij zelf ervaring met dit soort controllers? Verder lijken de pedalen gekoppeld aan andere 'lichaamsdelen' erg interessant! tot op heden beperkte ik mijn 'scope' tot (bi)-manuele inputs....
 
dat klinkt inderdaad fijn, maar bij deze voorbeelden is de touchscreen gewoon een input die meerdere aanrakingen registreert, toch? je zou dezelfde functies kunenn koppelen aan fysieke knoppen of bv. een touchpad als de kaosspad.

De insteek van dit project gaat hem dus niet zozeer over het vergemakkelijken, toch niet met efficiëntie als doel. Meer wil ik kijken naar hoe FX's echt 'bespeeld' kunnen worden. Hierbij is dus niet alleen visuele en auditieve feedback van belang, maar ook tactiele (bijvoorbeeld dmv. fysieke vormveranderingen, haptic feedback, etc.). Verder ben ik erg geïnspireerd door de analogieën die worden gebruikt in de OP-1... bv. de tape recorder die ook de klassieke beperking (max 4 tracks) overneemt, met de creatieve gevolgen van dien.
Zoek je dan iets meer in de richting van The Finger van Tim Exile?
 
naar hoe FX's echt 'bespeeld' kunnen worden.
Das de vraag wat je dan met 'bespeeld' bedoelt. Muziek is geen fx en fx is geen muziek.
FX is een onderdeel van het timbre / klankkleur maar pitch/toon is vaak moeilijk.

De techniek om met het hoofd en gedachten dingen te besturen BCI's dat lijkt me wel tof.
Maar zal nog wel even duren voordat je daar akoorden mee kan aanslaan :)
 
@ToonCH Je bent wel bekend met de expressive-e osmose? Wat jij beschrijft doet me daar nu aan denken als voorbeeld. Een interface die de klassieke beperking (toetsenbord) overneemt, en toch iets toevoegt.

 
Das de vraag wat je dan met 'bespeeld' bedoelt. Muziek is geen fx en fx is geen muziek.
FX is een onderdeel van het timbre / klankkleur maar pitch/toon is vaak moeilijk.

De techniek om met het hoofd en gedachten dingen te besturen BCI's dat lijkt me wel tof.
Maar zal nog wel even duren voordat je daar akoorden mee kan aanslaan :)
Het gaat hem met FX over manipulatie van een geluidsbron, wat zeker in de hedendaagse electronische genres des te belangrijk aan het worden is... Mensen transformeren de meest eenvoudige pings in hele soundscapes met FX. Toch lijkt er als input voor de bediening van deze nog veel gebruik gemaakt te worden van generieke inputs als sliders en knobs, of (touch)schermen die dan weer te weinig tactiele feedback en exacte parameterwaarden geven. De digitale plugin-omgeving zit nochtans boordevol mooie voorstellingen van sonische concepten (reverbs, delays, granular, ...). Ik zou deze willen vertalen naar hardware die tactiele feedback vooraan stelt, tot de verbeelding spreekt en creatief gebruik van de plugin stimuleert. Fysiek en tactiel zijn keywords, "bespelen" in 't kort! :D
 
@ToonCH Je bent wel bekend met de expressive-e osmose? Wat jij beschrijft doet me daar nu aan denken als voorbeeld. Een interface die de klassieke beperking (toetsenbord) overneemt, en toch iets toevoegt.

Jup! een heerlijk voorbeeld dat ook de voordelen van MPE erg duidelijk maakt. Ze leggen zich echter wel toe het bespelen van instrumenten (en dat doen ze erg goed). I ben momenteel op zoek naar een Touché om te gaan experimenteren met MPE en FX....
 
Misschien denk ik wat te rechtlijnig, maar in se zie ik geen verschil tussen faders, touchscreen of een MPE apparaat: allen genereren op een of andere manier aanstuurinformatie. Je kan bijv perfect een MPE bron programmeren op een touchscreen, een touche genereert voltages en midi info, maar ten slotte zendt deze de data ook over 6 (voor achter links rechts boven onder?) aparte kanalaen.

Waar voor me wel een groter verschil ligt is hoe een effect reageert op deze informatie (bijv het gebruik van macros of vertaling van de 6 kanalen info naar meerdere parameters, resolutie hoog genoeg om envelope followers te gebruiken, correcte interpretatie van midi toonhoogte en velocity zodat je het effect met toetsen kan aansturen enz.)

Zie ik het te nauw?
 
Misschien denk ik wat te rechtlijnig, maar in se zie ik geen verschil tussen faders, touchscreen of een MPE apparaat: allen genereren op een of andere manier aanstuurinformatie. Je kan bijv perfect een MPE bron programmeren op een touchscreen, een touche genereert voltages en midi info, maar ten slotte zendt deze de data ook over 6 (voor achter links rechts boven onder?) aparte kanalaen.

Waar voor me wel een groter verschil ligt is hoe een effect reageert op deze informatie (bijv het gebruik van macros of vertaling van de 6 kanalen info naar meerdere parameters, resolutie hoog genoeg om envelope followers te gebruiken, correcte interpretatie van midi toonhoogte en velocity zodat je het effect met toetsen kan aansturen enz.)

Zie ik het te nauw?
Wat je zegt is natuurlijk helemaal waar; het KAN al, MPE maakt nieuwe controllers mogelijk maar voorheen kon men dezelfde functionaliteit reeds bekomen met een touchscreen (of andere inputs). Waar dit project zou moeten gaan onderscheiden is op vlak van expressie: hoe gaan we die 6 kanalen nu fysiek bedienen zodat ze meer gaan inspireren dan een slider of een scherm. Waarom is de fysieke bediening van een reverb vaak dezelfde als die van een delay of flanger? Hoe kan de bediening van verschillende effecten worden vertaald naar inspirerende fysieke controls?

Vast klinkt dit nogal vaag, inefficient, overbodig. Het betreft echter een academisch project waar ook een heel deel onderzoek bij zit en het vooral gaat over vernieuwing en concepten. Ik probeer de scope ver open te trekken, zodat ik in een later stadium kan gaan vernauwen en een realistisch/bruikbaar geheel kan opleveren.
 
Hoe kan de bediening van verschillende effecten worden vertaald naar inspirerende fysieke controls?
Je bedoelt bv met gestures, dat je door je armen te spreiden de reverb ruimte groter maakt o.i.d.? Dus eerder weg van de standaard knoppen?
Overigens dacht ik ook nog aan deze, knoppen die je op een touchscreen kunt plakken. Vond het wel een interessant concept, maar weet niet zeker of het echt fijn werkt:
TUNA KNOBS - Pepperdecks | Mix your Music, Anywhere, Anytime
 
Je bedoelt bv met gestures, dat je door je armen te spreiden de reverb ruimte groter maakt o.i.d.? Dus eerder weg van de standaard knoppen?
Overigens dacht ik ook nog aan deze, knoppen die je op een touchscreen kunt plakken. Vond het wel een interessant concept, maar weet niet zeker of het echt fijn werkt:
TUNA KNOBS - Pepperdecks | Mix your Music, Anywhere, Anytime
Bijvoorbeeld! of een object dat je in volume vergroot om de 'size' van de reverb aan te passen. Of een delay van concentrische ringen waarmee je de amplitude van elke herhaling kan aanpassen, ....

TUNA KNOBS zag ik nog niet. Merci! deze zijn ook wel vet, tangibles in combinatie met touchscreen zoals ze met de microsoft surface hebben gedaan (tangeble interaction als concept is de laatste jaren echter wel wat achterhaald) ROTOR |
 
Ha Toon, wat bedoel je precies met interactieve muziekproductie?

Door je woordkeuze lijkt het, alsof je het tegenover iets anders zet (non-interactieve muziekproductie?).

Of bedoel je eigenlijk "de interactie die plaatsvindt tijdens muziekproductie"?

En volg je de stappen van design thinking? Zo ja: welk probleem los je op / wat heb je ingevuld bij "define"? Of ben je via je enquête nog met de "empathize"-stap bezig?

// edit: misschien zit in je doel dat probleem al verwerkt.. namelijk dat grids en knoppen niet voldoende zijn, right? Is dat een aanname? Of baseer je dat al ergens op? Of zit ik nu gewoon verkeerd te denken (kan ook heeeel goed haha)...?
 
Ha Toon, wat bedoel je precies met interactieve muziekproductie?

Door je woordkeuze lijkt het, alsof je het tegenover iets anders zet (non-interactieve muziekproductie?).

Of bedoel je eigenlijk "de interactie die plaatsvindt tijdens muziekproductie"?

En volg je de stappen van design thinking? Zo ja: welk probleem los je op / wat heb je ingevuld bij "define"? Of ben je via je enquête nog met de "empathize"-stap bezig?

// edit: misschien zit in je doel dat probleem al verwerkt.. namelijk dat grids en knoppen niet voldoende zijn, right? Is dat een aanname? Of baseer je dat al ergens op? Of zit ik nu gewoon verkeerd te denken (kan ook heeeel goed haha)...?
Stoter, erg bedankt voor je kritische kijk!
Met interactief bedoel ik de wisselwerking tussen mens en toestel. in realiteit is het doel dus MEER interactieve muziekproductie waarbij de koppeling van de handelingen van de gebruiker aan het toestel betekenisvoller zijn, de feedback die het toestel teruggeeft beter (of anders) is dan wat nu op de markt is. Overigens niet de beste titel, bedenk ik me nu.

Dit is een project dat erg dicht bij mij ligt (als muziek-enthousiast). Ik moet dus toegeven dat er initieel enkele aannames zijn gemaakt op basis van eigen ervaringen. Momenteel zoek ik te begrijpen wat anderen ervaren/waardevol achten in hun proces en of ik de enige ben die waarde ziet in deze meer betekenisvolle koppelingen: hiervoor ontwierp ik de enquête. Ik zit dus wel degelijk in de 'emphatize'-fase en probeer mijn eigen kijk zoveel mogelijk achterwege te laten.

Initieel werd de digitale omgeving ontworpen naar analogie met de klassieke opnamestudio (DAW's namen de mix-consoles, meters en vormgeving van klassieke gear over). Digitaal is de mogelijkheden van 'klassieke' gear echter gaan overstijgen en om de unieke creatieve toepassingen die de digitale omgeving ondertussen mogelijk maakt betekenisvol te gaan mappen aan fysieke inputs kan er dus niet langer gekeken worden naar de klassieke analoge tegenhangers. Gezien het gebruik van generieke controle-elementen zoals knoppen en sliders resulteert in verlies van ‘affordances’ (en dus intuitieve, natuurlijke bediening) moet er volgens mij dus gezocht worden naar alternatieve inputmethodes.
 
Ik kwam reeds één of twee voorbeelden van blazers tegen, echter niet gedacht dat ze ook veel gebruikt worden. Heb jij zelf ervaring met dit soort controllers? Verder lijken de pedalen gekoppeld aan andere 'lichaamsdelen' erg interessant! tot op heden beperkte ik mijn 'scope' tot (bi)-manuele inputs....
Geen ervaring. In een winkel die speelgoed verkocht kon ik een keer een saxofoon kopen met midi out voor omgerekend €70
Hoe harder je blaast hoe harder het geluid. Jammer dat ik het niet gewaagt heb te kopen.
Dan heb ik nog een digitaal ding sorry dat ik de naam niet bij de hand heb. Als je aan een wieltje draait met de vinger komt het geluid op gang
à la een draaiorgel of platenspeler.
 
Yamaha DX11 en DX7 hebben een speciale breathcontroller en input daarvoor.
Kwa instrumenten bestaat er wel voor elk instrument een hardware controller variant.

Drum, saw, trompet, gitaar etc...
 
Holy Sh*t hier een set max4live devices waarmee je via hersengolven parameters kan besturen.
 
@ToonCH ik heb een poging gedaan je enquête in te vullen, maar kom er nog niet helemaal doorheen.. begrijp niet zo goed waar ik nu aan bijdraag.

Maak je zelf elektronische muziek? Ik krijg namelijk de indruk dat je een paar termen.. nou ja.. in elk geval anders invult dan ik (en bespeur het ook in de reacties van anderen).

De trigger voor mijn vraag is, dat je (in de intro van de enquête) aangeeft, dat je een controller wil bedenken/ontwikkelen, "die op een meer betekenisvolle manier de bediening van digitale effecten mogelijk maakt, vergeleken met klassieke grid- en knoppeninterfaces."

Wat is jouw definitie van "digitale effecten"? Waarom daar zo specifiek op toespitsen? Heb het vermoeden dat jij met "effecten" eigenlijk (of ook) "synth-parameters" bedoelt.

Mocht je nu (inderdaad) er een iets andere betekenis aan hebben gegeven.. dan heeft dat gevolgen voor hoe wij die vragenlijst hebben ingevuld. Iets voor jou, als onderzoeker, om rekening mee te houden.

Nog wat tips:

Je zou misschien Eboman kunnen interviewen. Aardige gast, als hij tijd heeft, vindt hij dat vást wel tof.

Helaas is STEIM ter ziele, maar genoeg over te vinden in de (internet)archieven; was een instituut in Amsterdam, dat zich bezig hield met elektronische muziek en dan specifiek de performance-aspecten.

Heb je, naast ons de vragenlijst voorschotelen, ook hier op SF al rondgekeken en de discussies een beetje in kaart kunnen brengen? Er zijn er heel veel te vinden, dankbare bronnen voor je onderwerp. Deze twee schieten me alvast te binnen:




Daarnaast lees ik hier vaak: hardware is tof, want: knopjes. Interessant voor jou, want jij wil software en knopjes "aanmoedigen".

Waarom midi-controllers dan niet als argument worden gebruikt, is - dénk ik - vanwege "het gevoel".. en dat gevoel komt door de beperkte hoeveelheid stapjes in het midi-protocol... 128 mogelijke posities van een knop voelt anders aan, ten opzichte van oneindig (analoog) veel posities. En dus is midi2 misschien interessant voor je, om te bekijken. Haakt de opvolger van midi1 hierop in? Waarom wel/niet?


En als het dan toch academisch wordt.. zou zéker ook even kijken naar de "algemene" technologie researchers.. al een tijdje niet in gezeten (en dus wellicht achterhaald), maar ik moet vooral denken aan de actor-netwerk-theorie van Bruno Latour.. kan erg leuke perspectieven voor je opleveren.


groet en succes!
 
Laatst gewijzigd:
@ToonCH ik heb een poging gedaan je enquête in te vullen, maar kom er nog niet helemaal doorheen.. begrijp niet zo goed waar ik nu aan bijdraag.

Maak je zelf elektronische muziek? Ik krijg namelijk de indruk dat je een paar termen.. nou ja.. in elk geval anders invult dan ik (en bespeur het ook in de reacties van anderen).

De trigger voor mijn vraag is, dat je (in de intro van de enquête) aangeeft, dat je een controller wil bedenken/ontwikkelen, "die op een meer betekenisvolle manier de bediening van digitale effecten mogelijk maakt, vergeleken met klassieke grid- en knoppeninterfaces."

Wat is jouw definitie van "digitale effecten"? Waarom daar zo specifiek op toespitsen? Heb het vermoeden dat jij met "effecten" eigenlijk (of ook) "synth-parameters" bedoelt.

Mocht je nu (inderdaad) er een iets andere betekenis aan hebben gegeven.. dan heeft dat gevolgen voor hoe wij die vragenlijst hebben ingevuld. Iets voor jou, als onderzoeker, om rekening mee te houden.

Nog wat tips:

Je zou misschien Eboman kunnen interviewen. Aardige gast, als hij tijd heeft, vindt hij dat vást wel tof.

Helaas is STEIM ter ziele, maar genoeg over te vinden in de (internet)archieven; was een instituut in Amsterdam, dat zich bezig hield met elektronische muziek en dan specifiek de performance-aspecten.

Heb je, naast ons de vragenlijst voorschotelen, ook hier op SF al rondgekeken en de discussies een beetje in kaart kunnen brengen? Er zijn er heel veel te vinden, dankbare bronnen voor je onderwerp. Deze twee schieten me alvast te binnen:




Daarnaast lees ik hier vaak: hardware is tof, want: knopjes. Interessant voor jou, want jij wil software en knopjes "aanmoedigen".

Waarom midi-controllers dan niet als argument worden gebruikt, is - dénk ik - vanwege "het gevoel".. en dat gevoel komt door de beperkte hoeveelheid stapjes in het midi-protocol... 128 mogelijke posities van een knop voelt anders aan, ten opzichte van oneindig (analoog) veel posities. En dus is midi2 misschien interessant voor je, om te bekijken. Haakt de opvolger van midi1 hierop in? Waarom wel/niet?


En als het dan toch academisch wordt.. zou zéker ook even kijken naar de "algemene" technologie researchers.. al een tijdje niet in gezeten (en dus wellicht achterhaald), maar ik moet vooral denken aan de actor-netwerk-theorie van Bruno Latour.. kan erg leuke perspectieven voor je opleveren.


groet en succes!
Opnieuw erg waardevolle feedback, waarvoor mijn dank!

De threads die je aanbrengt heb ik geboeid doorgelezen. De insteek van beide is echter verschillend van de mijne. In wat volgt probeer ik even toe te lichten…

Draad 1 draait rond het bedienen van de DAW, externaliseren van parameters met het bekomen van een zo efficiënt mogelijke workflow. Verschillende combinaties van hardware worden aangehaald waar de grootste belemmeringen compatibiliteit van protocollen, omslachtigheid van mapping en beperkingen van midi1(!) blijken te zijn. Overigens erg interessante inzichten bekomen over feedback van (endless) encoders, OSC, …

Draad 2 bevat een mooi overzicht van de methodes die mensen gebruiken om ook creatieve toepassingen te gaan mappen, voornamelijk synths. Er is een grote markt van allerlei controllers met knoppen en sliders. Tot op het heden vormen deze inputs de interface van fysieke synths, een koppeling met generieke controllers is dus eenvoudig te maken. Verder werden enkele erg interessante systemen vermeld welke ik nog niet kende. Oa. https://yaeltex.com/ en Intech Studio en MP MIDI Controller

Maar wat met virtuele (beter woord!?) fx-plugins? waarom worden virtuele ruimtes in reverbs, gekke echo's of concepten als granular nog steeds vertaald naar sliders en knoppen? --> dit is het academisch gedeelte van mijn thesis, waarbij ik de huidige digitale productieomgeving analyseer op metaforen die kunnen vertaald worden in betekenisvolle fysieke inputmethodes. Belangrijk hier is bijvoorbeeld Norman's theory of affordances, fundamenteel in HCI.

Het einddoel van dit project is echter het fysiek toegankelijk maken van fx-plugins zonder PC. Dit om de flexibliteit van digitale software FX te gaan integreren in DAWless setups. De focus ligt hier dus niet uitsluitend op efficiëntie, gebruiksgemak of multifunctionaliteit zoals controllers nu worden ontworpen: Ik zoek vooral naar waarde in beperkingen, betekenisvolle metaforen en (tactiele) feedback.

Ik vond zonet nog enkele leuke quotes in de thread rond dawless opnemen:

Quote van ‘klinkske’:

“Weet je, probeer gewoon 'iets' - het is echt waar allemaal tof, ook de half dawless stuff waar ik alleen opneem, heel tof allemaal. Die beperkingen. keuzes maken. En op 't einde van de 'jam' even loss gaan en niet meer braafjes, levert soms de beste (ergste) resultaten op :D

Hoe minder ik muis hoe liever.”
Quote van ‘score100’:

“mij valt op dat steeds meer DAW-achtige hardware verschijnt met grote schermen, zoals de eerder vernoemde MPC live/one of de force.”
Quote van ‘Xrsist’:

“Live knoppen draaien / inspelen geeft mij het meeste voldoening.”

Beperkingen die inspireren. Tactiele bediening. Weg van de oneindig flexibele schermen. Dat laatste is, als student die zowat permanent aan een scherm gekluisterd zit, mijn grootste aanname; wens.

Ik denk dat het tijd is om de enquête te gaan herwerken (hemels moeilijk is dat, zo'n ding schrijven!) en meer ga focussen op toepassing in de studio, noden van gebruikers in hun (dawless-)systemen, terminologie en duidelijke formulering van mijn vragen. Ik ben me overigens bewust van een hoop contradicties doorheen deze thread, zelf ben ik nog volop op zoek en veel hiervan is nieuw voor mij! in elk geval vind ik het geweldig met hoeveel passie mensen op platformen als deze de tijd nemen om hun ervaringen te delen en anderen bij te staan! Bedankt allen. :D
 
Heldere aanscherping, dank je wel. Later verder. Voor nu: als je een enquête lastig vindt, stel gerust hier je vragen. Of denk es hardop. De mensen hier kletsen graag, misschien net iets liever dan dat ze een vragenlijst invullen.

Maar goed, je wil ook wat kwantitatieve data ipv kwalitatieve, misschien.

Wordt vervolgd, gaaf onderwerp!
 
Back
Top