Online-Gaming: Immer Ärger mit den Servern

Immer öfter schlagen leidenschaftliche Gamer beim Release eines neuen Spiels frustriert die Hände überm Kopf zusammen – denn leider wird es offenbar immer üblicher, dass neue PC- und Videogames schon beim Launch mit herben Schwierigkeiten zu kämpfen haben. Day-One-Patches, Server-Probleme, Lags, plötzliche Verbindungsabbrüche und bizarre Bugs mit Gamebreaker-Potenzial machen so manchen heiß erwarteten Titel vorübergehend unspielbar. Dieses Jahr traf es unter anderem Call of Duty: World War II, und auch über Star Wars: Battlefront 2 beschweren sich einige Spieler.

Zwar lenken die jeweiligen Entwickler oder Publisher ein, indem sie Probleme beheben, patchen und sogar kleine Reparationen (zum Beispiel in Form von Gratis-Content) leisten. Der Schaden aber ist groß: Die administrative Mehrarbeit kostet nicht nur Geld, der harsche „consumer outcry“ schädigt auch das Image. Aber wie kommt es, dass selbst gestandene Studios beim Launch dermaßen schwächeln?

It’s over 9000!

Grund ist ein inhärenter Widerspruch zwischen Wollen und Können: Auf der einen Seite pushen heutige Entwickler die Online-Funktionalität moderner Games – teils sogar im Singleplayer – da sie den Spielern auf diese Weise mehr Content (etwa regelmäßige Updates, DLCs, Events) bieten können und somit zusätzliche Einnahmequellen generieren. Titel wie SimCity und Diablo 3 verlangen gemäß einer „always-on“-Ideologie, dass man ab dem ersten Spielstart ununterbrochen mit dem Internet verbunden ist. Jedoch stehen die Studios auf der anderen Seite den besonderen Herausforderungen gegenüber, die mit den Online-Funktionen von Spielen einhergehen.

All diese Funktionen basieren nämlich auf komplexen Backend-Dienstleistungen, die implementiert, sorgfältig getestet und von da an konstant und verlässlich funktionieren müssen. Im Gegensatz zu Webseiten oder Social-Media-Plattformen können bei Online-Games plötzlich riesige Datenmengen anfallen, die gespeichert, heruntergeladen und mit denen der anderen Spieler synchronisiert werden müssen, um ein reibungsloses Spielvergnügen zu gewährleisten. Das Problem dabei: Game-Designer sind keine Backend-Designer, und umgekehrt. Das fehlende Know-how beziehungsweise Verständnis für den jeweils anderen Bereich führt dazu, dass die Kapazitäten von Servern oft nur geringfügig getestet werden. Beim Launch fallen dann plötzlich deutlich größere Spielerzahlen an als erwartet. Das Ergebnis: Die Server sind gnadenlos überlastet.

Aus den Fehlern der Großen lernen

Von Peer2Peer-Gaming und Listenservern erwartet man ja quasi schon, dass sie eher schlecht als recht funktionieren. Hardcore-Gamer halten sich wegen häufigen Host-Migrationen und Verbindungsabbrüchen bewusst von solchen Modellen fern. Die Anschaffung beziehungsweise Anmietung eines eigenen Dedicated Servers ist nicht nur für Privatprojekte und die Arbeit, sondern auch im PC-Gaming inzwischen Gang und Gäbe, weshalb es dafür viele verschiedene Tarife mit unterschiedlichen Konditionen und Preisen gibt.

Solche dedizierten Hardware-Ressourcen stellen nicht nur ihre komplette Leistung ohne Abstriche fürs Gaming bereit, sie können auch völlig frei administriert und konfiguriert werden. Beim Betrieb eines eigenen Servers sollte man aber aus den Fehlern der Großen lernen. Das wichtigste Kredo lautet: genügend Reserve-Kapazitäten für Leistungsspitzen (etwa durch viele Spieler, aufwendige Games oder Mods) zur Verfügung haben! Zudem führt kein Weg daran vorbei, sich zumindest mit den Basics eines Server-Backends vertraut zu machen.

Hinterlasse jetzt einen Kommentar

Kommentar hinterlassen

E-Mail Adresse wird nicht veröffentlicht.


*