In einem derzeit bereitgestellten Webserver, was sind die typischen Grenzen für die Leistung?Was sind die theoretischen Leistungsgrenzen für Webserver?
Ich glaube, eine sinnvolle Antwort wäre eine von 100, 1.000, 10.000, 100.000 oder 1.000.000 Anfragen/Sekunde, aber das ist heute wahr? Was war vor 5 Jahren wahr? Was können wir in 5 Jahren erwarten? (Wie wirken sich Trends bei Bandbreite, Festplattenleistung, CPU-Leistung usw. auf die Antwort aus?)
Wenn es sich um ein wesentliches handelt, sollte die Tatsache berücksichtigt werden, dass HTTP über TCP das Zugriffsprotokoll ist. OS, Serversprache und Dateisystemeffekte sollten als best-of-breed angesehen werden.
Angenommen, die Festplatte enthält viele kleine eindeutige Dateien, die statisch bereitgestellt werden. Ich beabsichtige, den Effekt von Speichercaches zu beseitigen, und diese CPU-Zeit wird hauptsächlich verwendet, um die Netzwerk-/Protokollinformationen zusammenzusetzen. Diese Annahmen sollen die Antwort auf "Worst-Case" -Schätzungen ausrichten, bei denen eine Anforderung eine gewisse Bandbreite, einige CPU-Zeit und einen Plattenzugriff erfordert.
Ich bin nur auf der Suche nach etwas genau auf eine Größenordnung oder so.
Normalerweise ist der Speicher zuerst erschöpft. Dann reparieren Sie Ihre Anwendung. Dann ist die CPU erschöpft. Dann reparieren Sie Ihre Anwendung. Dann ist die Netzwerkbandbreite erschöpft. Dann reparieren Sie Ihre Anwendung. Dann ist die Erinnerung erschöpft ... –
Threading-Server, der hauptsächlich statische Dateien versorgt, würde den RAM nicht erschöpfen. – vartec
Frage ergibt keinen Sinn. Die theoretischen Leistungsgrenzen werden mit RAM-Caches, TCP-Offloading usw. getroffen. Das Setzen künstlicher Beschränkungen gibt Ihnen ein ebenso künstliches Leistungslimit. Und in der Praxis verwendet jeder zumindest etwas RAM-Caching, wenn auch nur in den Platten selbst. – MSalters