Wie Facebook die Daten von 300 Millionen Nutzern verkraftet
30.000 Server, 25 TByte Logfile täglich und 600.000 Fotos pro Sekunde
Facebook ist groß, in jeder Dimension. Das sagt Jeff Rothschild, Vice President für Technologie bei Facebook bei einer Präsentation an der Universität San Diego und unterlegte dies mit Zahlen. Rothschild erläuterte die Architektur hinter Facebook und sprach über künftige technische Herausforderungen.
Facebook verzeichnet mit derzeit 200 Millionen aktiven Nutzern rund 200 Milliarden Pageviews pro Monat und verarbeitet täglich 3,9 Billionen Feed-Aktionen. Täglich werden mehr als 1 Milliarde Chat-Nachrichten über Facebook ausgetauscht und mehr als 100 Millionen Suchanfragen gestellt. Zudem werden wöchentlich mehr als 2 Milliarden Content-Elemente hochgeladen. Facebook Connect kommt auf mehr als 15.000 Webseiten zum Einsatz.
- Wie Facebook die Daten von 300 Millionen Nutzern verkraftet
- Wie Facebook die Daten von 300 Millionen Nutzern verkraftet
- Wie Facebook die Daten von 300 Millionen Nutzern verkraftet
Dazu betreibt Facebook aktuell rund 30.000 Server, so Rothschild und betonte den großen Einfluss, den Facebooks Techniker haben: Statistisch betrachtet ist jeder Techniker bei Facebook für rund 1 Million Nutzer zuständig.
Zu den populärsten Applikationen auf Facebook zählt die Foto-Applikation mit derzeit 20 Milliarden Fotos, von denen jedes in vier Auflösungen gespeichert wird. Insgesamt hostet Facebook also rund 80 Milliarden Fotos, wobei monatlich 2 bis 3 Milliarden hinzukommen. Auch die Nachfrage ist groß: Bis zu 600.000 Fotos liefert Facebook pro Sekunde aus.
Haystack - eigenes Dateisystem für Fotos
Dabei hatte Facebook anfangs den Erfolg seiner Foto-Applikation und die damit einhergehenden Herausforderungen unterschätzt, räumt Rothschild ein. So war das System zunächst in zwei Schichten aufgeteilt: Die Upload-Schicht kümmerte sich um die eigentlichen Uploads, skalierte die Bilder und speicherte sie auf NFS-Server. Die Serving-Schicht lieferte die auf NFS-Servern gespeicherten Bilder aus. Dabei kamen kommerzielle NFS-Server zum Einsatz, doch die verfügbaren Dateisysteme waren nicht gut darin, solch große Datenmengen zu verwalten, so Rothschild. Zudem passten die Metadaten nicht in den Speicher, was zu vielen Festplattenzugriffen führte. Letztendlich war I/O das große Problem, nicht die Speicherdichte.
Um dem Herr zu werden, begann Facebook die am häufigsten abgerufenen Bilder zu cachen und über ein CDN auszuliefern. Das Cachesystem entwickelte Facebook auf Basis von Memcached und Lighty.
Wie Facebook die Daten von 300 Millionen Nutzern verkraftet |
Eins wird da wohl völlig reichen und selbst dann haste noch etliche Ressourcen frei um...
Schon gewusst, Facebook setzt MySQL gar nicht als relationale Datenbank ein. MySQL dient...
Da ich grad an der UCSD studiere, konnte mir das das anhören. Kann jedem Technik...
Dir ist aber schon klar, das Abmelden nicht gleich löschen heisst. Meist werden deine...