Menselijke computer muziek?

ProgHead

Gepokt en gemazeld
Lid sinds
26 februari 2019
Berichten
5.545
Locatie
Zeist
Ik ben heel blij met de huidige mogelijkheden om middels (vaak ook nog gratis) software allerhande klanken te kunnen voortbrengen. Toch is er een probleem dat ook voor leken direct opvalt, namelijk dat veel met de computer gemaakte muziek levenloos en mechanisch klinkt. Ik hoor dat zelf ook en denk dat dit een serieus probleem is. Hoe pakken jullie dat aan? Zijn er plug-ins en/of handigheidjes om je muziek levendiger te laten klinken?
 
Minder dingen in sync doen.

Bijvoorbeeld door een delaytje of reverb op wat elementen die dan niet perfect in de pas loopt. Daardoor krijg je al snel extra 'beweging' in deze elementen waar je dan je oor (en je gevoel) extra mee kunt activeren.
Je brein is altijd op zoek naar patronen en als die te strak zijn kan het inderdaad erg levenloos klinken.
 
Hier 50 tips om het levendig en organisch te laten klinken, wat dreamer al zegt komt ook aan bod.

Een andere manier kan zijn om niet voor de volle 100% vast te houden aan wat de computer voor je doet. Natuurlijk is het interessant om te horen wat je met een computer kan doen, en met de andere draadjes in het achterhoofd over Nyquist, Faust e.d. zal dit misschien ook voor jou tenminste voor een gedeelte vanuit een zekere intellectuele interesse zijn. Voor mij is dat wel het geval. Niks mis mee, maar er is meer. Voor muziek die je andere hersenhelft een plezier doet, daar mag best een menselijke component inzitten. Je kunt een nummer voor het grootste deel maken met de computer, en een klein stukje met de hand inspelen bijvoorbeeld. Dat zal al een verschil maken. Ben zelf een enorme kneus met een keyboard, maar als niemand het hoort en ziet oefen ik toch een beetje erop zo nu en dan, zodat ik tenminste iets kan spelen met de hand.
 
Leren muziek spelen en schrijven is denk ik het allerbelangrijkste. Zelfs het saaiste instrument dat geheel mechanisch en per noot identiek klinkt kan op een mooie manier worden ingezet als je er maar de muziek voor maakt waarmee het werkt.
Ik zie je heel veel op software / techniek richten, maar het leven zit bij muziek meer in compositie en wat je er persoonlijk inlegt aan gevoel dan de techniek die er achter zit.
 
Je kan bijv velocity en probability instellen als de software die mogelijkheden ondersteunt waardoor muziek afwisselender en minder voorspelbaar gaat klinken.
Daarnaast zelf noten spelen/invoeren en niet quantizen maakt het menselijker want juist de variaties in timing en hard/zachtheid en kleine imperfekties geven het een menselijke touch en zorgen voor een dynamisch geheel.
Een mens is tenslotte geen machine dus wil je ook geen machine horen in veel gevallen.
Ook een lfo voor een paar procent laen meelopen in je synthlijn geeft het net wat meer movement om het maar zo te zeggen.
Een filter dmv een modwheel of in software wat te automaten geeft wat variatie.
Vaak kan je bijv in muzieksoorten waar gevoel voorop staat zoals blues, jazz en funk heel goed horen hoe belangrijk het gevoel en de timing/frasering is vooral bij het soleren/improviseren.
Of luister 'ns wat naar Sinatra als zanger want die had een uitstekend gevoel voor timing en frasering, daar kan je een hoop van leren ondanks dat het wellicht niet je smaak is.
Ik vond het zelf indertijd soms ongelooflijk als je Sinatra wat hoorde zingen en dan dacht van hij redt het niet, hij komt te laat en hoe hij dan in alle rust precies op het laatste moment nog even de laatste woorden inzong.
 
Laatst gewijzigd:
Uiteindelijk is een computer een dom apparaat, net als een muziekinstrument.
Je kunt het zo 'menselijk' maken als je zelf wilt..
 
Dit is vrijwel zeker onze eigen onkunde. Het bewijs zijn de vele vele bekende rock nummers waar de drums geprogrammeerd zijn. De vele movie scores gemaakt op een xv5080 en een sequencer.
hoe beter je in soundesign en compositie je bent hoe levendiger je het kan makenken.

Roundrobin
Random velocity
multisampling
niet quantizen
Physical modeling
instrumenten juist programeren binnen de mogelijk heden van dat instrument
 
Laatst gewijzigd:
Iemand ervaring met de Tobybear Humanisator plug-in? Ik kan mijn audio van LMMS (mijn DAW) in Carla door de Humanisator plug-in sturen, maar ik hoor vooralsnog geen verschil. Misschien doe ik iets verkeerd?
 
Dit artikel schoot me net te binnen, geen concrete tips ofzo, maar een beschouwing over computers, muziek en mensen. Past een beetje bij jouw vraag en het is een interessant. :)
 
Dit artikel schoot me net te binnen, geen concrete tips ofzo, maar een beschouwing over computers, muziek en mensen. Past een beetje bij jouw vraag en het is een interessant. :)

Mooi - ziet er interessant uit, daar moet ik eens even voor gaan zitten.
 
Misschien moet je 's wat meer zelf aan de knopjes draaien tijdens opnames en niet alleen maar op plugins vertrouwen. ;)

Noodgedwongen ben ik mijn muziekjes al handmatig aan het "humaniseren" omdat dat in LMMS (mijn DAW) naar het aanziet niet automatisch kan. En zo zie je maar, elk nadeel heeft zijn voordeel. :D
 
Dit artikel schoot me net te binnen, geen concrete tips ofzo, maar een beschouwing over computers, muziek en mensen. Past een beetje bij jouw vraag en het is een interessant. :)

Heel interessant artikel, ook degene waarop dit gebaseerd is. Hoewel ik het helemaal niet met dit artikel eens ben. Je kunt heel organische muziek maken voledig digitaal met een keyboard aan een computer.
Dit gaat gewoon over non-muziekanten die hun muziek over editen en niets spelen. De betere producers spelen vaak wel een echt instrument, De computer is geen instrument dat je kunt spelen, het is alleen het brein. Je moet er een instrument aanhangen om het te kunnen spelen. ( keyboard, midi gitaar, midifluit, electronische drums, drum pads etc etc )
Ik ga de artikelen eens helemaal door lezen.
 
flyweight : Dat denk ik ook, het zal in elk geval helpen om een echt instrument te bespelen, ook al werk je digitaal. Dat gaf ik hierboven ook al aan. Maar het gaat ook om het geluid zelf. Het is niet voor iedereen belangrijk, maar de vele plugins die er zijn voor bv. tape-simulatie en andere effecten om een beetje "analoog" geluid toe te voegen doet vermoeden dat er toch aardig wat mensen zijn die digitaal werken en op zoek zijn naar die "sonische complexiteit" zoals de schrijver dat noemt. Maar zoals gezegd niet iedereen, en dat maakt hun muziek natuurlijk niet bij voorbaat minder goed. En wat audiocollage zegt, dat speelt denk ik ook een rol.
 
Ik heb 't artikel snel door gelezen en de term lofi valt redelijk vaak alsof 24 bit 96 khz niet menselijk zou kunnen klinken?
Het gaat er volgens mij vooral om hoeveel je de computer laat doen en hoeveel je zelf toevoegt en niet de geluidskwaliteit.
Tegenwoordig nemen artiesten op in een geweldige kwaliteit maar als ze zelf de piano, gitaar of wat dan ook inspelen wordt het automatisch menselijk.
Als je niet een instrument speelt dan kan je heel simpel in een microfoontje wat midinoten inbrengen door gewoon met do doooo dodo of bijv oeh aah enz iets in inzingen en op een pianoroll te krijgen.
Dan zet je een vst erop en wordt het een bas of een een lead of whatever maar het klinkt nog steeds menselijk omdat door jou ingezongen noten nou eenmaal ritme en toonhoogte aangeven met al z'n menselijke imperfekties.
En heb je een wat slecht maatgevoel of klinken je noten hier en daar vals pas het aan op de pianoroll en nog steeds zal het menselijk zijn zolang je maar niet alles strak trekt.
Je beatboxt er wat op en het zal geweldig menselijk klinken.
Zodra je ook dat aan de computer overlaat door een sequence in te toetsen op een grid dan begint het onmenselijk te worden en dan kan je met velocity en probability wel enigzins een en ander verhullen maar het blijft een wat mechanisch karakter houden door z'n repetetieve karakter.
Je kan ook een mix maken door wel iets op de sequence te zetten en 1 of 2 tracks beatbox je wat mee, moet je 'ns zien wat dat scheelt en het is nog veel leuker ook dan alleen wat programmeren.:okdan:
 
Laatst gewijzigd:
Back
Top