Musikstreaming-Pionier Spotify hat viele Jahre Zeit gehabt, um die technischen Herausforderungen des Musikstreamings zu meistern. Noch sind eigene Rechenzentren mit 6000 Servern notwendig, um Songs schnell auszuliefern. In Zukunft soll alles über Amazons Cloud abgewickelt werden.
Das Geschäftsmodell und übergeordnete Konstrukt von Spotify mag, wie in der vergangenen Woche erläutert, einige Unwägbarkeiten für die Zukunft mit sich bringen; gerade äußerte sich passend zum Thema Radiohead-Frontman Thom Yorke äußerst abfällig über den Dienst und kritisierte die enge Bindung zwischen dem Startup und den Major Labels.
Doch was bei dem Musikdienst dagegen wenig Grund zur Kritik gibt, ist die technische Umsetzung des Streaming-on-Demand-Prinzips.
Selbst über langsame Mobilfunkverbindungen vergeht selten mehr als eine Sekunde, bis das Abspielen eines Titels beginnt. Spotify ist es gelungen, bei seinen 24 Millionen aktiven Nutzern ein Anwendererlebnis zu schaffen, das sich anfühlt, als befänden sich angehörte Songs auf der lokalen Festplatte und nicht auf einem Server irgendwo in der Welt. Zwar leisten die diversen Konkurrenten wie Deezer , Rdio oder simfy ähnliches, als Streamingpionier war es aber Spotify, das sich mit vielen Anfangsproblemen herumschlagen musste, aus deren Erkenntnissen die Nachzügler lernen konnten.
In einem Artikel hat das schwedische Onlinemagazin Computer Sweden gestern einige interessante Einblicke ( übersetzt ) in die technischen Abläufe gegeben, welche die sofortige Bereitstellung der rund 20 Millionen Titel möglich machen. Es folgt eine Zusammenfassung:
- Alle rund 20 Millionen Songs liegen in der Cloud der Amazon Web Services, in jeweils mindestens sechs sich in der Tonqualität unterscheidenden Versionen, zumeist im Format Ogg Vorbis, aber auch als MP3. Würden sie mit der aktuellen Systemarchitektur von dort an die User augeliefert werden werden, wäre mit einer zwei- bis fünfsekündigen Verzögerung zu rechnen, bevor das Abspielen eines Titels startet.
- Um dies in der Mehrzahl der Fälle zu vermeiden, betreibt Spotify vier eigene Rechenzentren. Diese befinden sich in Stockholm, London, an der US-amerikanischen Ostküste und an der US-amerikanischen Westküste.
- Auf den insgesamt 6000 Servern in diesen Rechenzentren befinden sich jeweils die 25 Prozent der von Nutzern in der "versorgten" Region am meisten angehörten Titel. Die Server dienen also als eine Art "Zwischenspeicher" und stellen das sofortige Abspielen von Songs ohne Verzögerung sicher.
- Jeden Tag liefern Spotifys vier Rechenzentren 400 Terabyte Daten an die Nutzer aus.
- Häufiger gestreamte Titel speichert Spotify temporär im Cache von Rechnern, Smartphones und Tablets der User ab, um einen Zugriff mit größtmöglicher Geschwindigkeit zu garantieren.
- Nur wer an obskuren Songs oder Alben aus vergangenen Jahrzehnten interessiert ist, muss sich mit zwei- bis fünfsekündigen Wartezeiten abfinden. Dann nämlich fordert ein Server im nächstgelegenen Spotify-Rechenzentrum das Stück aus der Amazon-Cloud an und übermittelt es anschließend an den Client.
- Insgesamt belegen alle 20 Millionen Titel in den verschiedenen Qualitätsausführungen 900 Terabyte Speicher.
- Mittelfristig plant Spotify, die Rolle der eigenen Rechenzentren zurückzuschrauben und irgendwann alle Streams direkt aus der Cloud an die Anwender auszuliefern - ohne dass dabei Verzögerungen entstehen. Dazu müsse jedoch noch einiges an der Architektur optimiert werden. Anfang 2014 soll damit begonnen werden, testweise ein halbes Prozent der Spotify-User ohne Umweg über Spotifys eigene Server mit Musik zu versorgen.
- Rund 360 Angestellte kümmern sich bei Spotify um die Technik, etwa 250 davon sind Entwickler.
Was im Artikel nicht zur Sprache kommt, aber bei der Schilderung der Herausforderungen und Zukunftspläne bedacht werden sollte, ist der Einsatz von Peer-to-Peer-Technologie. Wer über Spotify streamt, fungiert gleichzeitig als kleiner Server, der Songdaten an andere User sendet. /mw