• Zuhause
  • Artikel
  • Google AI Music Project Magenta lässt Beats wie Menschen fallen
Veröffentlicht am 28-09-2019

Google AI Music Project Magenta lässt Beats wie Menschen fallen

Als Queen-Gitarrist Brian May den donnernden Sound „Thump thump clap“ kreierte, der die Einführung zu ihrem Megahit We Will Rock You sein sollte, half ihm sein Hintergrund in Physik ungemein. May verwendete eine Reihe einzelner Overdubs, um den grandiosen und nachhallenden Sound der Stamping-Beats zu erzeugen. "Später haben die Leute eine Maschine dafür entworfen", witzelte May über den manuellen Schichtungsprozess. In der Tat haben neue Technologien die Musikindustrie seit den 80er Jahren grundlegend verändert. Und eine neue Maschine sorgt jetzt für Begeisterung in der Musikszene.

Bei Magenta Studio handelt es sich um ein Google Brain-Projekt, das „die Rolle des maschinellen Lernens als Werkzeug im kreativen Prozess untersucht“. Das Google Brain-Team erstellte das Open-Source-Musikpaket mithilfe von Modellen des maschinellen Lernens. Die Suite enthält vier Tools: Continue, Generate, Interpolate und GrooVAE. Musiker können die Modelle für ihre MIDI-Clips (Musical Instrument Digital Interface) verwenden. Derzeit ist die Toolsuite als eigenständige Electron-Anwendung und als Plugin für den Software-Musiksequenzer und die digitale Audio-Workstation Ableton Live erhältlich, die ursprünglich als Instrument für Live-Auftritte konzipiert wurden, jetzt aber auch zum Komponieren von Musik weit verbreitet sind. Aufnehmen, Arrangieren, Mischen und Mastern.

"Meiner Meinung nach ist GrooVAE das interessanteste Feature von Magenta", sagt der in Toronto ansässige Musikproduzent Ryan McDougall. „Derzeit können andere Apps den Sound nur durch zufällige Variationen humanisieren. Magenta Studio scheint anders zu sein, wenn man neuronales Netzwerktraining verwendet. “

Obwohl fortschrittliche Technologien die Musikproduktion in Bezug auf Effizienz und Genauigkeit verbessert haben, kann es bei digitalen Prozessen an dem leichten, aber vertrauten "Drop-Beat" -Gefühl und anderen natürlichen Unvollkommenheiten mangeln, die von menschlichen Spielern erzeugt werden. GrooVAE kann einen Drum-Clip-Sound erzeugen und sich wie ein menschlicher Schlagzeuger anfühlen. Die Magenta-Forscher quantifizierten 15 Stunden von echten Schlagzeugern, die an MIDI-Drum-Kits spielten, und trainierten dann ein neuronales Netzwerk, um die Beats vorherzusagen. Sie verwendeten eine Vorhersagemethode ähnlich dem automatischen Sprachübersetzungssystem von Google, bei der Schlagzeugschläge und -muster anstelle von Wörtern und Phrasen eingesetzt wurden. Jesse Engel, Forscher und Gitarrist bei Google Brain, twitterte, dass der Beat von GrooVAE so menschlich ist, dass er "mich beinahe erschaudert".

Magenta Studio kann auch ein nützliches Werkzeug für Musiker sein, die kreative Blockaden überwinden möchten. Das Continue-Tool verwendet die Vorhersagekraft von rekurrenten neuronalen Netzen (RNN), um bis zu 32 Takte zusätzlicher Musik nach dem ursprünglichen Schlagzeugschlag oder den Melodieeingaben zu erzeugen. Darüber hinaus führt der Prozess nicht nur einfache Vorhersagen der Melodie durch, sondern erstellt auch Variationen der Themen.

Für völlig blockierte Musiker, die sich nicht sicher sind, wie sie anfangen sollen, erzeugt Magentas Werkzeug "Generieren" eine Phrase mit vier Takten ohne Eingabe. Dies geschieht durch einen Variational Autoencoder (VAE), der auf Millionen von Melodien und Rhythmen trainiert ist und aus den Daten eine zusammenfassende Darstellung der musikalischen Qualitäten gelernt hat.

Das Zusammenführen verschiedener musikalischer Ideen ist eine weitere Herausforderung bei der Komposition und Produktion von Musik. Das Interpolate-Tool von Magenta unterstützt Musiker dabei. Mit zwei Schlagzeugschlägen oder zwei Melodien als Eingabe erstellt Interpolate Clips, die nahtlos Qualitäten aus beiden Eingaben integrieren. Die VAE spielt auch hier eine wichtige Rolle. Sie ermöglicht Interpolate, Musikmuster zu spezifizieren, indem Verbindungen zwischen den Eingängen abgebildet und schließlich zu einem komprimierten MIDI-Profil zusammengefasst werden.

Magenta Studio ist nicht die erste KI, die sich mit Musik beschäftigt. Die amerikanische Sängerin Taryn Southern verwendete Magenta, die virtuelle Komponistin AIVA, IBMs Watson Beat und AI-Komponistin und API Amper für ihr Album I Am AI aus dem Jahr 2018. Amper ist ein weiteres Unternehmen für Musiksoftware, das AI verwendet, um Musik in verschiedenen Genres und Stimmungen zu erstellen.

Eine zunehmende Anzahl von AI-betriebenen Startups macht in der Musikbranche Lärm, während ihre neuen AI-Musikgenerierungstechniken auch kommerzielle Anwendungen in Film- und Fernsehhintergrundmusik, Soundtracks, Videospielen usw. haben. Als eine der Pilotanwendungen von Googles Magenta Magenta Studio repräsentiert die neuesten Bemühungen von Technologiegiganten, das Potenzial von AI in der kreativen Kunst zu erforschen.

Journalist: Fangyu Cai | Herausgeber: Michael Sarazen

2018 Der AI Adaptivity Report der Fortune Global 500 Aktiengesellschaft ist da!
Kaufen Sie einen Kindle-formatierten Bericht bei Amazon.
Beantragen Sie das Insight-Partnerprogramm, um einen kostenlosen vollständigen PDF-Bericht zu erhalten.

Folgen Sie uns auf Twitter @Synced_Global für tägliche KI-Nachrichten!

Wir wissen, dass Sie keine Geschichten verpassen möchten. Abonnieren Sie unsere beliebte Synchronisierte Globale KI-Woche, um wöchentliche KI-Updates zu erhalten.

Siehe auch

"Speer sie in den Schwanz"Symphonie der MenschheitDie wichtigsten Änderungen, die mir passiert sindJede Wolke ...Was ist die Lebensdauer eines Kunstwerks?Wie die kanonischen Modi der Renaissance unser UI-Design verbessern.