Music AI tools topic

flyweight

Spice up your life with FM and Feedback
Lid sinds
10 november 2010
Berichten
11.146
Locatie
HybriDe L!Fe


Dit topic word een collectie van AI tools die je voor sound en muziek kunt gebruiken.
Geinspireerd door de video hierboven.
AI natuurlijk een buzzwoord kan natuurlijk ook machine learning, re-synthesis en andere methoden omvatten. Als de output maar computer gegenereerd is en muziekaal bruikbaar is. Ook grapics zijn welkom.
Hier kunnen we ook voorbeelden en step/by step documentatie delen hoe en wat je kunt doen.

GPT playground: https://platform.openai.com/playground

META AudioGen MusicGEN GitHub - facebookresearch/audiocraft: Audiocraft is a library for audio processing and generation with deep learning. It features the state-of-the-art EnCodec audio compressor / tokenizer, along with MusicGen, a simple and controllable music generation LM with textual and melodic conditioning.

SUNO: https://www.suno.ai/ GitHub - suno-ai/bark: 🔊 Text-Prompted Generative Audio Model
waiting list voor de webinterface...

Google LM: AI Test Kitchen

Stem isolator:https://moises.ai/

A.I. videos:Pika Labs. https://www.pika.art/

Amazon deepcomposer: Creating a music genre model with your own data in AWS DeepComposer | Amazon Web Services
 
Laatst gewijzigd:
Mubert ( closed source ) Mubert - Thousands of Staff-Picked Royalty-Free Music Tracks for Streaming, Videos, Podcasts, Commercial Use and Online Content

Goolge LM

 
Van Stability AI (Stable Diffusion), text naar audio: Stable Audio - Generative AI for music & sound fx

Uit de Volkskrant:

Dit is een AI-programma dat muziek genereert op basis van een simpele tekstopdracht. Het bedrijf achter Stable Audio is Stability AI, dat al een tijdje aan de weg timmert met zijn programma Stable Diffusion. Dit is, net als Midjourney en DALL-E, bedoeld voor het maken van afbeeldingen via zogenoemde tekstprompts. Nu doet Stability AI dus hetzelfde, maar dan voor muziek. Voer bijvoorbeeld ‘Ambient, drone, ethereal vocals, reverb, synthesisers, piano, drone, melancholic, meditative, deep, thoughtful’ in en Stable Audio komt met maximaal 45 seconden (de betaalversie biedt langere tracks) muziek op de proppen. De site is overigens momenteel door de grote belangstelling wel wat overbelast.

Het model achter het programma is getraind met 800.000 stukken muziek waarvoor Stability een licentie heeft. Bij die afzonderlijke trainingsstukken zitten ook beschrijvingen, zoals het soort instrument of de sfeer.
Anders dan bij de populaire AI-afbeeldingen is het niet mogelijk om het programma te vragen een liedje in de stijl van een bepaalde artiest te maken, omdat het achterliggende model daar niet op getraind is. Iets als ‘Maak een discoliedje in de stijl van de Beatles’ is dus niet mogelijk. Maar dat is hier ook niet de bedoeling, zegt Stability AI tegenover VentureBeat: artiesten willen toch wat creatiever zijn dan dat.

Stability AI is niet de eerste die zich richt op text-to-audio. Onder andere Google en Meta hebben ook AI-modellen die zijn bedoeld voor het maken van muziek. Die van Google (MusicLM) is echter nog niet voor het brede publiek beschikbaar, terwijl MusicGen van Meta meer een ruwe demo is, geschikt voor maximaal 12 seconden muziek.
 
Van Stability AI (Stable Diffusion), text naar audio: Stable Audio - Generative AI for music & sound fx

Uit de Volkskrant:

Dit is een AI-programma dat muziek genereert op basis van een simpele tekstopdracht. Het bedrijf achter Stable Audio is Stability AI, dat al een tijdje aan de weg timmert met zijn programma Stable Diffusion. Dit is, net als Midjourney en DALL-E, bedoeld voor het maken van afbeeldingen via zogenoemde tekstprompts. Nu doet Stability AI dus hetzelfde, maar dan voor muziek. Voer bijvoorbeeld ‘Ambient, drone, ethereal vocals, reverb, synthesisers, piano, drone, melancholic, meditative, deep, thoughtful’ in en Stable Audio komt met maximaal 45 seconden (de betaalversie biedt langere tracks) muziek op de proppen. De site is overigens momenteel door de grote belangstelling wel wat overbelast.

Het model achter het programma is getraind met 800.000 stukken muziek waarvoor Stability een licentie heeft. Bij die afzonderlijke trainingsstukken zitten ook beschrijvingen, zoals het soort instrument of de sfeer.
Anders dan bij de populaire AI-afbeeldingen is het niet mogelijk om het programma te vragen een liedje in de stijl van een bepaalde artiest te maken, omdat het achterliggende model daar niet op getraind is. Iets als ‘Maak een discoliedje in de stijl van de Beatles’ is dus niet mogelijk. Maar dat is hier ook niet de bedoeling, zegt Stability AI tegenover VentureBeat: artiesten willen toch wat creatiever zijn dan dat.

Stability AI is niet de eerste die zich richt op text-to-audio. Onder andere Google en Meta hebben ook AI-modellen die zijn bedoeld voor het maken van muziek. Die van Google (MusicLM) is echter nog niet voor het brede publiek beschikbaar, terwijl MusicGen van Meta meer een ruwe demo is, geschikt voor maximaal 12 seconden muziek.
Klinkt naar een muziekplatform als Spotify of Deezer maar gewoon met een betere zoekfunktie :)
AI plugins zijn voor mij meer dingen als Captain Plugins Epic of Orb Composer Pro. Dingen die je echt helpen bij je compositie en waar je zelf nog keuzes en veranderingen in kan aanbrengen.
 

UVR5
Ultimate Vocal Remover 5

Gratis software om met behulp van diverse AI algoritmen vocals te verwijderen uit een mix, maar ook instrumentale partijen zoals drums.
Valt dus in de categorie stem separation software.

De werking is tamelijk vaag en onduidelijk, dus je moet ff klooien en Googelen.
Maar deze software gebruikt als het goed is wel de beste algoritmen die er zijn op dit moment.

Gisteren heb ik UVR5 gebruikt om drums uit een bestaande track van hoge kwaliteit (wave file van CD geript) te verwijderen, zodat een drummer z'n eigen drumpartij kan meespelen en opnemen.

Na een minuut of 6 renderen via m'n Nvidia GTX graphics card nog wel, stond ik echt even versteld van het resultaat. Ik had niet verwacht dat het al zo goed zou zijn. Oké, het is niet 100% maar echt al heel bruikbaar.
 
@Bahamut Dank voor de tip. ik gebruik spleeter(gui) en tegenwoordig serato sample vanwege gemak en kwaliteit ook wel.
ik ga ze vergelijken met UVR
 
Die Aiva.ai demo track klink erg goed.
Beter dan ik iig ooit ga maken.
Maar het klinkt wel als bekende dingen.
Maar dan net anders.
Indrukwekkend!


 
Straks wordt alle muziek met AI gemaakt en heb je alleen nog DJ's nodig om een feestje te bouwen.
 
Denk het niet.
Muziek is een creatief iets.
En werkt niet volgens een standaard formule.

AI is eigenlijk meer een goede jat machine.
 
jatten en inspireren zijn nauw aan elkaar verbonden.
Natuurlijk kun je iets van een ander mens of AI horen waardoor je geinspireerd raakt.
So what? Denk dus dat AI niet echt iets nieuws maakt maar de muziek na-aapt, melodien, harmonie, progressies etc.
Net zo als de grafische tools de truuk van bestaande artiesten overneemt.

Daarom denk ik als je echt creatief met AI // Machine // deeplearning wilt zijn zul je je eigen datasets moeten maken/trainen.
Daar kun je wel echt creatief in raken.
Helemaal als je er alleen je eigen muziek in stopt.
Maar goed das niet voor iedereen en vereist dat je kunt coden.
 
Ik bedoel het ook breder. Iedereen zit op zijn eigen spoortje, met aannames, ervaringen en (onbewuste) vooringenomenheid. AI kan je op andere manieren naar zaken laten kijken. Ook bij muziek. Misschien stuit je op ideeën die nooit uit jezelf zouden komen? Maar die je wel heel vet vindt, en waarmee je verder kunt? Dan kan het meer zijn dan na-apen. "Tof, zo heb ik er nog nooit naar gekeken," dat idee. Dat heb ik bij schrijven nu al regelmatig.
 
Origineel zijn is een illusie - je kunt sowieso niet om na-apen heen, als je kunst wil maken. Er zal altijd een basis zijn van "hoe het hoort", of de traditie waar je onderdeel van bent, en da's precies de na-aperij. (En juist okay, geeft je publiek handvatten.)

AI helpt, als je de stap wil overslaan van nieuwe (stilistische) vaardigheden onder de knie krijgen, om die-en-die techniek te kunnen vervlechten in je kunst. Dat gaat tegenwoordig een stuk makkelijker, waar de ambachtslieden van nu wellicht chagrijnig van worden. Dat snap ik dan wel, maar je kunt er niet omheen. Ambachten verschuiven nou eenmaal.

Daarbij kan AI trouwens zeker helpen met het vinden van creatieve invalshoeken. Maar dat geldt ook voor een dobbelsteen. Pick your tools.
 
Het mes snijd altijd aan 2 kanten.
Ik ben het wel met je punt eens. @bombario
Maar hier de andere kant van het mes: :)

je kan ook denken dat AI je creatieve skills verminderd omdat je minder uit jezelf laat komen.
Je minder creatief hoeft te zijn omdat het voor je word voorgekauwd.
Het is belangrijk voor mij om me te ontwikkelen in mijn eigen unieke domein.
Daarnaast laat je je beinvloeden door een externe partij.
Dus die hebben dan invloed op wat je schrijft en wat voor muziek er uit komt.
Daar ligt de dataset aan ten grondset.

Alles wat ik hoor van muziek en AI hoor klinkt als bestaande dingen.
Gejat en somehow door een algoritme anders gemaakt.
Hoe beter de AI klinkt hoe meer het gejat klinkt en hoe minder je een computer hoort proberen.
En als je echt een computer wat hoort proberen klinkt/voelt het vaak nergens na.

@stoter met 'origineel zijn' bedoelen we simpel weg je eigen unieke formule toepassen en daarmee dingen maken. Dus niet een concept 1:1 overnemen omdat et een success was.
Wat jij stelt is filosofisch maar schiet zijn punt in dit topic voorbij.
Dat is een hele andere discussie waar ik me in kan vinden.

Maar niet in AI waar een dataset letterlijk een database van ideeen van mensen zijn. En dat in muziek en visuele kunst zijn die mensen vaak groot heden in de kunst.
Daarmee zijn veel AI tools dus na-apers die mainstream cultuur en kunst weerspiegelen.
Wat voor mij een beetje als covers spelen is.
En minder met je eigen muziek schrijven te maken heeft als je er te veel op leunt.

Maar goed tools kunnen misbruikt worden en zo kun je wellicht er creatiever mee omgaan.

Het beste lijkt me je eigen data sets maken met het merendeel input van je eigen gemaakte werk.
 
Laatst gewijzigd:
Daarnaast laat je je beinvloeden door een externe partij.
Dus die hebben dan invloed op wat je schrijft en wat voor muziek er uit komt.
Daar ligt de dataset aan ten grondset.

Klopt, maar daar ligt nu ook al heel veel aan ten grondslag. Het land waar je geboren bent, de omgeving waarin je opgroeit, de mensen met wie je omgaat, de muziek die je luistert, de boeken die je leest etc. Je wordt de hele dag beïnvloed. Als je dat niet wilt, moet je je eigenlijk opsluiten 😉
 
Back
Top