Google AI Musikprojekt Magenta lässt Beats Like Humans fallen

Als der Queen-Gitarrist Brian May den donnernden „Thump Thump Clap“ -Sound kreierte, der die Einführung in ihr Megahit We Will Rock You werden sollte, half ihm sein physikalischer Hintergrund ungemein. May verwendete eine Reihe einzelner Overdubs, um den großartigen und nachhallenden Sound auf den Stamping Beats aufzubauen. "Später haben die Leute eine Maschine dafür entworfen", witzelte May über den manuellen Schichtungsprozess. In der Tat haben neue Technologien die Musikindustrie seit den 80er Jahren grundlegend verändert. Und eine neue Maschine sorgt jetzt für Aufsehen in der Musikszene.

Magenta Studio ist ein Google Brain-Projekt, das „die Rolle des maschinellen Lernens als Werkzeug im kreativen Prozess untersucht“. Das Google Brain-Team hat das Open-Source-Paket zum Musizieren mithilfe von Modellen für maschinelles Lernen erstellt. Die Suite enthält vier Tools: Fortfahren, Generieren, Interpolieren und GrooVAE. Musiker können die Modelle auf ihren MIDI-Clips (Musical Instrument Digital Interface) verwenden. Derzeit ist die Tool-Suite als eigenständige Electron-Anwendung und als Plugin für den Software-Musiksequenzer und die digitale Audio-Workstation Ableton Live verfügbar, die ursprünglich als Instrument für Live-Auftritte konzipiert wurde, jetzt aber auch häufig zum Komponieren von Musik verwendet wird. aufnehmen, arrangieren, mischen und mastern.

"Meiner Meinung nach ist GrooVAE das interessanteste Merkmal von Magenta", sagt der in Toronto ansässige Musikproduzent Ryan McDougall. „Derzeit können andere Apps den Sound nur durch zufällige Variationen humanisieren. Magenta Studio scheint anders zu sein, wenn es neuronales Netzwerktraining verwendet. “

Obwohl fortschrittliche Technologien die Musikproduktion in Bezug auf Effizienz und Genauigkeit verbessert haben, können digitalen Prozessen das leichte, aber vertraute "Drop-Beat" -Gefühl und andere natürliche Unvollkommenheiten fehlen, die von menschlichen Spielern erzeugt werden. GrooVAE kann einen Drum-Clip klingen lassen und sich wie ein menschlicher Schlagzeuger anfühlen. Magenta-Forscher quantifizierten 15 Stunden echte Schlagzeuger, die mit MIDI-Drum-Kits auftraten, und trainierten dann ein neuronales Netzwerk, um die Beats vorherzusagen. Sie verwendeten eine Vorhersagemethode ähnlich dem automatischen Sprachübersetzungssystem von Google, bei der Trommelschläge und -muster anstelle von Wörtern und Phrasen eingesetzt wurden. Der Google Brain-Forscher und Gitarrist Jesse Engel hat getwittert, dass der Beat von GrooVAE so menschlich ist, dass er „mich fast erschaudern lässt“.

Magenta Studio kann auch ein nützliches Werkzeug für Musiker sein, die kreative Blockaden durchbrechen möchten. Das Continue-Tool verwendet die Vorhersagekraft wiederkehrender neuronaler Netze (RNN), um bis zu 32 Takte zusätzlicher Musik nach dem ursprünglichen Schlagzeugschlag oder den Melodieeingaben zu generieren. Darüber hinaus führt der Prozess nicht nur einfache Vorhersagen der Melodie durch, sondern erzeugt auch Variationen von Themen.

Für vollständig blockierte Musiker, die sich nicht einmal sicher sind, wie sie anfangen sollen, erzeugt das Generierungswerkzeug von Magenta eine Phrase mit vier Takten ohne Eingabe. Dies geschieht durch einen Variational Autoencoder (VAE), der auf Millionen von Melodien und Rhythmen trainiert ist und aus den Daten eine zusammengefasste Darstellung der musikalischen Qualitäten gelernt hat.

Das Zusammenführen verschiedener musikalischer Ideen ist eine weitere Herausforderung bei der Komposition und Produktion von Musik, und das Interpolate-Tool von Magenta unterstützt Musiker in dieser Hinsicht. Interpolate verwendet zwei Drum Beats oder zwei Melodien als Eingabe und erstellt Clips, die die Eigenschaften beider Eingaben nahtlos integrieren. Die VAE spielt auch hier eine wichtige Rolle, da Interpolate Musikmuster spezifizieren kann, indem Verbindungen zwischen den Eingängen abgebildet und schließlich zu einem komprimierten MIDI-Profil zusammengefasst werden.

Magenta Studio ist nicht die erste KI, die sich mit Musik beschäftigt. Die amerikanische Sängerin Taryn Southern verwendete Magenta, den virtuellen Komponisten AIVA, IBMs Watson Beat sowie den AI-Komponisten und API Amper auf ihrem 2018er Album I Am AI. Amper ist ein weiteres Unternehmen für Musiksoftware, das AI verwendet, um Musik in verschiedenen Genres und Stimmungen zu erstellen.

Immer mehr Startups mit KI-Unterstützung machen in der Musikbranche Lärm, während ihre neuen Techniken zur Erzeugung von KI-Musik auch kommerzielle Anwendungen in Film- und Fernseh-Hintergrundmusik, Soundtracks, Videospielen usw. haben. Als eine der Pilotanwendungen von Googles Magenta Das Projekt Magenta Studio repräsentiert die jüngsten Bemühungen von Technologiegiganten, das Potenzial von AI in den kreativen Künsten zu erkunden.

Journalist: Fangyu Cai | Herausgeber: Michael Sarazen

Der AI Adaptivity Report der Fortune Global 500 Public Company für 2018 ist erschienen! Kaufen Sie einen Kindle-formatierten Bericht bei Amazon. Beantragen Sie das Insight-Partnerprogramm, um einen kostenlosen vollständigen PDF-Bericht zu erhalten.

Folgen Sie uns auf Twitter @Synced_Global für tägliche KI-Nachrichten!

Wir wissen, dass Sie keine Geschichten verpassen möchten. Abonnieren Sie unsere beliebte Synced Global AI Weekly, um wöchentliche AI-Updates zu erhalten.