florian leibert mesosphere

Gründer Florian Leibert im Mesosphere-Büro in San Francisco

Florian Leibert über Mesosphere: „Das ist wirklich sehr revolutionär“

Die beiden Deutschen haben sich für ihr Startup in San Franciscos In-Stadtteil SoMa eine eher ruppige Gegend ausgesucht, es liegt zwischen einer Motorradwerkstatt und einem Parkplatz, die Interstate 80 ist in Hörweite. Aber Florian Leibert und Tobias Knaup dürften ohnehin wenig Zeit außerhalb ihres Büros verbringen, Mesosphere, ihr Startup, fordert vollste Aufmerksamkeit, es fasziniert derzeit Tech-Spezialisten im ganzen Silicon Valley, Entwickler von Google schauen wöchentlich vorbei, auch die Investoren – Kleiner Perkins, Andreessen Horowitz – kommen aus der absoluten VC-Spitzengruppe. Im Juni sammelte Mesosphere 10,5 Millionen US-Dollar in der Serie-A-Runde ein, seither macht das Startup mit hochkarätigen Einstellungen von sich reden. Aber was macht Mesosphere genau? Das soll Florian Leibert besser selbst erklären.

Flo, ihr habt in den letzten Wochen mit Christos Kozyrakis einen Stanford-Professor und mit Ben Hindman einen Top-Entwickler von Twitter eingestellt. Wie überzeugt man solche Spitzenleute?

Ein Grund, warum wir ziemlich viele gute Leute bekommen, ist der Reiz, der von unserer Technologie ausgeht. Apache Mesos, das Open-Source-Projekt, auf dem unsere Technologie aufbaut, ist eine revolutionäre Technologie. Warum? Weil es die komplette Art und Weise, wie wir in den letzen zehn Jahren über Rechenzentren nachgedacht haben, schlagartig ändert.

Anzeige
Was ist bei Mesos anders?

Wir unterteilen einzelne Maschinen nicht mehr in viele virtuelle Maschinen. Stattdessen kannst du mit unserer Software ein komplettes Rechenzentrum wie einen riesigen Rechner darstellen. Das führt zu wesentlich mehr Automation. Das heißt zum Beispiel, dass die Admins keine Pager mehr brauchen, weil eine Applikation zusammengebrochen ist. Wenn das passiert, wird die Anwendung automatisch neugestartet. Und es führt zu mehr Effizienz – das spart einerseits Kosten. Andererseits: Ein Rechenzentrum hat immer eine Obergrenze, wie viele Server man unterbringen kann, denn mehr als 65, maximal 85 Megawatt gehen in der Regel nicht. Einige der größten Rechenzentren haben 100 Prozent Power-Auslastung, da kannst du keine weiteren Rechner reinknallen. Aber mit dem Internet of Things, mit den ganzen Sensordaten, die gespeichert werden müssen, mangelt es oftmals an der Rechenpower, um diese Signale in verwendbare Daten umwandeln zu können. Mesos verbessert die Auslastung. Unsere Software richtet sich aber nicht nur an Rechenzentren, sondern auch an Entwickler, die Big-Data-Applikationen schreiben, Datenbanken, verteilte Systeme. Mit unserer Software kannst du dein Programm im kompletten Rechenzentrum ausführen, ohne dass du die Maschinen selbst miteinander verknüpfen musst. Das macht unsere Software automatisch für dich. Das ist wirklich sehr revolutionär.

Wie und wann bist du zum ersten Mal auf das Problem gestoßen?

Als ich im Dezember 2009 zu Twitter kam, war der „Fail Whale“ sehr häufig zu sehen. Twitter war sehr schnell gewachsen und baute auf einer Technologie auf, die eher für Prototypen oder eine mittelgroße Website geeignet war – aber nicht für eine Firma, die quasi an der Infrastruktur hängt. Das war eine monolithische Ruby-on-Rails-Applikation, quasi ein riesiger, 100.000 oder 200.000 Zeilen langer Block, der die komplette Logik kontrolliert. Also wurden einzelne Teile wie etwa die Suche herausgenommen und in sogenannte Microservices umgewandelt, die über eine Rest API verbunden wurden. Auf einen kleinen Service kann man dann jeweils ein Team ansetzen. Nur: Bei Twitter war das damals unheimlich schwierig, diese Services anschließend zu deployen. Ich hatte zum Beispiel die sogenannte User Search gebaut, die gibt es heute noch. Aber nachdem wir das aus dem Rails Core herausgenommen hatten, dauerte es noch drei Monate, um das in die Production zu bekommen. Das lag daran, dass es damals ein relativ kleines Operations-Team gab. Und die von allen Seiten Sachen hingeknallt bekommen haben.

Das war das Nadelöhr.

Genau, wir mussten Monate auf unseren Service warten. In der Zeit haben wir vielleicht ein bisschen optimiert, aber wenn du auf das Feature, an dem du gerade vier, fünf Monate gearbeitet hast, warten musst, du noch keine User sehen kannst, die den Service benutzen, dann bist du nicht so supermotiviert, gleich das nächste Ding zu bauen. Also haben wir uns angeguckt: Warum dauert das ganze so lang?

Und, warum?

Wir haben zunächst geschaut, wie ausgelastet die Twitter-Server waren. Die Auslastung lag bei – und das ist eine sehr industrietypische Zahl – ungefähr zwölf Prozent. Das heißt: 88 Prozent der Zeit wird diese 8000 Dollar teure Box, die du da stehen hast, nicht benutzt. Jede Maschine ist speziell konfiguriert für eine Applikation. Zu dem Problem hatte ein guter Freund gerade an der UC Berkeley seine Doktorarbeit geschrieben…

…Ben Hindman, den ihr kürzlich angeheuert habt…

…und was er da gefunden hatte, fand ich sehr interessant. Ich habe ihn mit dem Chief Scientist von Twitter zusammengebracht, Ben hat bei uns einen Vortrag gehalten. Und alle fanden das total cool. Twitter hat dann über die nächsten zwei Jahre Dutzende Millionen in die Entwicklung investiert. Am Ende hatten wir ein System, da konntest du als Entwickler reingehen und innerhalb von 20 Minuten 20 Prozent der Userbase Zugriff auf deinen Service geben. Das hat alles komplett verändert. Und die Auslastung ist hochgegangen.

Bevor du mit deinem Mitgründer Tobias Knaup daraus ein eigenes Unternehmen gemacht hast, habt ihr beide noch bei Airbnb gearbeitet.

Anzeige
Tobi, mit dem ich zusammen in Schweinfurt aufgewachsen bin, war vor mir bei Airbnb. Ungefähr alle zwei Wochen hat er versucht mich zu überzeugen, die Firma zu wechseln: „Airbnb geht’s super, wir brauchen jemanden, der sich mit dem ganzen Big-Data-Zeugs ein bisschen auskennt und da ein Team aufbaut. Kannst du das nicht machen?“ Also habe ich mir das Geschäftsmodell angeschaut und gedacht: Gut, ich könnte meine Stock Options ein bisschen diversifizieren. Ich habe dann dort das Big-Data-Team aufgebaut. Und von Anfang an war alles auf diesem Mesos-Kern, unserer Software, aufgebaut.

Du hast Mesos sozusagen mitgenommen?

Das geistige Eigentum für Mesos liegt bei der Universität Berkeley. Aber als Open Source konnten Twitter und Airbnb es nutzen. Bis zu diesem Zeitpunkt gab es quasi nur den – metaphorischen – verteilten Kernel: eine Plattform wie Linux oder Windows, aber noch keine Applikationen. Die haben wir dann erst darauf geschrieben. Bei Airbnb war das Chronos, was wir für die Zusammenlegung aller Big-Data-Jobs genutzt haben. Und auf einmal haben total viele Firmen begonnen, diese Software zu benutzen, Vimeo zum Beispiel. 30, 40 Firmen waren das, die Mesos dann in ihren Rechenzentren hatten.

Bitte wenden – im zweiten Teil des Interview erklärt Leibert, wie Mesosphere Geld verdient und warum das Startup ein zweites Büro in Hamburg aufgemacht hat.

Bild: Gründerszene

Seite 1 von 2