Die Digitalisierung hat die Musikindustrie auf den Kopf gestellt. Und auch die Art und Weise, wie wir Musik hören. Mit der Komprimierung von Musik in das digitale MP3-Format vor 20 Jahren wurde der Grundstein für den iPod, iTunes und Streamingdienste gelegt. Musiker können ihre Alben inzwischen ohne teure Studios auf Computern mit Software wie Pro Tools oder Ableton produzieren, DJs ihre Sets darauf mixen. Aber wie geht das alles weiter? Auf dem Tech Open Air in Berlin machten sich Eric Wahlforss, Mitgründer und CTO von SoundCloud, und Daniel Haver, CEO von Native Instruments, Gedanken über die Zukunft der Musik.

Am Anfang sei Soundcloud eigentlich ein Service für Musiker oder DJs gewesen, die ihre Tracks der Welt zur Verfügung stellen wollten, erzählt Wahlforss. Auch ohne die Hilfe von Plattenfirmen. Aber jetzt sei es auch ein Produkt für Leute geworden, die Musik vor allem hören wollen. Meistens auf mobilen Geräten. In einigen Ländern nutzen bis zu 90 Prozent der Konsumenten Soundcloud auf Smartphones und Tablets. Mit dieser Ausrichtung befindet man sich natürlich auch im Wettbewerb mit Diensten wie Spotify. Im nächsten Schritt soll es beim Berliner Startup vor allem um die Frage gehen, wie Musiker, die viele Follower und Fans haben, mit ihren Tracks auf Soundcloud Geld verdienen können. Auch das Thema Kuratoren werde angegangen. Experten sollen den Hörern die Suche nach interessanter Musik abnehmen. Ein Trend, den auch Streamingdienste wie Spotify oder Apple Music anbieten. Die Tools dafür würden gerade gebaut.

Soundcloud verspricht sich von der Idee, dass Musiker bald auf Soundcloud Geld verdienen können, ein „Aufblühen der kreativen Szene“. Seit zehn Monaten wird heftig daran gearbeitet. Wahlforss: „Wir wollen, dass jeder Revenue damit erzielen kann. Es gibt bereits Deals mit Warner und einigen Independent-Netzwerken.“ Aber es wird laut Wahlforss noch eine Weile dauern, bis das Tool international ausgerollt ist. „Das ist noch nie geamcht worden. Es ist sehr komplex – und mein absolutes Lieblingsprojekt.“

Daniel Haver erklärt, dass das Ziel von Native Instruments sei, aus dem Computer ein perfektes Musikinstrument zu machen. Für DJs, Musiker und Produzenten. Seine Firma mit Sitz in Berlin arbeite gerade an einem neuen Dateiformat, sogenannten Stems, das es DJs in Zukunft erlaubt, noch tiefer in die Musik einzugreifen. Tracks werden in vier Teile zerlegt – zum Beispiel Drums, Bass, Vocals und Melodie. Diese sind dann einzeln manipulierbar. Haver verspricht sich davon die nächste Revolution des Auflegens. Durch das neue Format gebe es in Zukunft noch mehr Möglichkeiten für DJs, die Tracks live zu remixen und der Musik ihren persönlichen Stempel aufzudrücken. Wettbewerber Ableton geht einen anderen Weg und richtet sich mit der sehr offenen, loopbasierten Software eher an Musiker. Die Grenzen zwischen Musikern und DJs werden in Zukunft also weiter verschwimmen.

Beide Experten waren sich einig: Technologie wird auch in Zukunft neue kreative Türen öffnen. Das Smartphone wird zur Schaltzentrale für Musiker und Musikhörer. Wahlforss: „Jeder kann mit seinem iPhone Musik machen.“ Die Beat- und Samplesoftware Maschine von Native Instruments läuft bereits schnell und flüssig auf dem Smartphone. Man kann zum Beispiel mit Schnipseln aus der eigenen Musikbibliothek oder Umweltgeräuschen schnell Beats, Klangflächen oder ganze Tracks bauen. Die sind dann in Sekundenbruchteilen auf Soundcloud hochgeladen und Freunde können sie hören oder weiter daran arbeiten. Fazit der beiden Musikliebhaber: Alles wird noch kreativer, offener, flüssiger und schneller. „Nicht schlecht, oder?“, findet Daniel Haver.

Namensnennung Bestimmte Rechte vorbehalten von teresalomas