• Das Erstellen neuer Accounts wurde ausgesetzt. Bei berechtigtem Interesse bitte Kontaktaufnahme über die üblichen Wege. Beste Grüße der Admin

V-Server

Bieber

New member
Ich will demnächst eine neue Webseite ins Netz bringen, bei welcher ich relativ hohe Last erwarte.

Am Anfang werden es hoffentlich um die 100Nutzer sein die parallel auf der Seite rumsurfen. Die Besonderheit ist, dass jeder der Nutzer im Schnitt alle 2Sekunde ne Anfrage an den Server schickt, also ca. 50Zugriffe pro Sekunde.

Mein Anwendung läuft unter PHP 5 mit ner MySQL-Datenbank. Meine Frage ist jetzt: was für einen Server sollte ich mir mieten? Ich will halt nicht soo viel Geld am Anfang investieren, wenn nicht klar ist, ob die Seite angenommen wird, bzw. ob man damit überhaupt was verdienen kann.

Die viele Zugriffe schließen ein billig-Produkt für 2-3Euro definitiv aus. Bei alphahosting gibt es z.B. einen vServer für nur 14Euro, dieser hat aber auch "nur" 384MB RAM. Könnte das reichen? Habe da ehrlich gesagt null Erfahrung (wenn es Oracle wäre wüsste ich sofort, dass es nie reicht :D ). Wenn jm. Erfahrungen / Hinweise hat dann wäre ich für Feedback sehr dankbar. Gern auch über Erfahrungen/Angebote von anderen Webhostern bei denen ihr seid.
 
Ich will demnächst eine neue Webseite ins Netz bringen, bei welcher ich relativ hohe Last erwarte.

Am Anfang werden es hoffentlich um die 100Nutzer sein die parallel auf der Seite rumsurfen. Die Besonderheit ist, dass jeder der Nutzer im Schnitt alle 2Sekunde ne Anfrage an den Server schickt, also ca. 50Zugriffe pro Sekunde.

Mein Anwendung läuft unter PHP 5 mit ner MySQL-Datenbank.
"relativ hohe Last" und "50 Zugriffe die Sekunde" sind keine wirklich messbaren Aussagen (die zweite eher als die erste).
Die Datenbank läßt darauf schliessen, dass auch DB-Abfragen Teil der Anwendung sind. Welchen Anteil und Rolle sie bei den 50 Abfragen die Sekunde spielen ist aber genauso unklar, wie die sonstigen Operationen, die das Skript bei jedem Aufruf durchführen muss.
Manches kann man z.B. durch entsprechendes Caching abfangen, das erfordert aber entsprechend RAM oder Plattenplatz.
Auch spielt die Anzahl und Größe von Datenbanktabellen und Indizes eine Rolle, wenn die Datenbank die kompletten Index-Daten im Hauptspeicher halten kann, dann können die Zugriffe schneller erfolgen, als bei einem Dateizugriff.

Eine definitive Aussage welcher Server geeignet ist, läßt sich so also nicht treffen. Gfs. könntest Du selbst Skriptlaufzeiten messen und den RAM Verbrauch ermitteln, notfalls mit Hilfe einer Virtuellen Maschine, wo Du ein Unix simulieren kannst.
 
Danke für die Anregungen. Wie du siehst, habe ich mich mit Performance bisher noch nie beschäftigt :(

Die Abfragen laufen (fast) alle gegen eine Tabelle der Datenbank, bei jedem Seitenaufruf wird hierbei auch eine Zeile in der Tabelle geändert. Um es kurz zu fassen: ich will eine Schachplattform online bringen, in der human vs. human live im Browser spielen können. Die stark belastet Tabelle wird also die "Spiele-Tabelle" in der die aktuelle Stellung, Bedenkzeit etc. gespeichert sind. Wenn das Spiel beendet ist, wird der Datensatz verschoben, so dass die Spiele-Tabelle klein bleibt. Also am Anfang max. 50Datensätze. Kann ich irgendwie herausfinden, wie groß so ein Datensatz ist? Um daraus dann abzuschätzen wieviel RAM nötig wäre um alles im RAM laufen zu lassen?

Für Benchmark fällt mir auf die schnelle nur die PEAR-Klasse Benchmark ein. Kann man die nehmen, oder gibts vielleicht was besseres? Das mit der VM ist auch ne gute Idee, werd ich dann auch mal machen.

Danke.

edit: hab mal schnell den PEAR-Benchmark eingebaut, auf meinem lokalem Testsystem habe ich eine Zeit(für das gesamte Script) von 0.054987 Sekunden, werde es dann mal auf eine VM packen, und der auch nur die 384MB RAM geben...mal schauen wie es da aussieht
 
Zuletzt bearbeitet:
also hab mal ne vm genommen, 1Prozssor, 384MB RAM, Debian Lenny

Ausführungszeit des Scripts liegt deutlich unter Windows, ca. 0.036s

ich habe dann mal ein F5-Feuerwerk veranstaltet um zu schauen wie sich CPU und RAM verhalten, beim RAM gab es keine Probleme/Veränderungen, aber die CPU-Auslastung ging hoch :-(

Code:
Mem:    386252k total,   380268k used,     5984k free,    33480k buffers
Swap:  1558296k total,       68k used,  1558228k free,   270872k cached  

  PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  COMMAND
 4754 www-data  20   0 33600 7956 3660 S 15.3  2.1   0:03.10 /usr/sbin/apache2 -k start
 4746 www-data  20   0 35196 9372 3748 R 14.0  2.4   0:03.14 /usr/sbin/apache2 -k start
 4748 www-data  20   0 34500 8968 3752 S 12.0  2.3   0:02.68 /usr/sbin/apache2 -k start
 4755 www-data  20   0 34468 8844 3676 S  8.6  2.3   0:02.10 /usr/sbin/apache2 -k start
 3778 mysql     20   0  116m  17m 5372 S  1.0  4.7   0:01.34 /usr/sbin/mysqld --basedir=/usr --datadir=

sieht nicht so gut aus oder? gibts noch eine andere Möglichkeit ne Last-Situation zu simulieren?
 
Hallo,
ich würde da eher auf einen günstigen Server zurückgreifen. webhostlist.de gibts eine grosse Auswahl. Ich selber habe gute Erfahrung mit Hetzner
 
Zurück
Oben