2017-03-20 1 views
0

Zunächst einmal Entschuldigung für mein schlechtes Englisch.Mehrere Website macht zugleich einen API-Aufruf

Ich will nur Dinge klären.

Wenn es mehrere Benutzer der Website gibt (sagen wir 1000) und versuchen, auf den Endpunkt meiner API (sagen wir alle Zugriff auf den Registrierungsendpunkt) zur gleichen Zeit (oder wenn nicht genau die gleiche Zeit, ein Zeitintervall von Nanosekunde). Was wird passieren? Wird jeder die gleiche Antwortzeit bekommen? oder der erste, der darauf zugreift, wird es schneller als der zweite bekommen?

Basis meines Wissens (yeah ich bin dumm), denke ich, dass die API in Warteschlangen behandelt, also wenn Sie der 1000. Benutzer sind, erhalten Sie die Antwort in viel längerer Zeit. Wenn das wahr ist. Gibt es eine Möglichkeit, die Verzögerung zu verringern?

Vielen Dank für Ihre Zeit, Dinge zu erklären :)

+0

Dazu müssen Sie stimmen Servereinstellungen. Lassen Sie uns sagen, wenn Sie 'PHP' und' Nginx' mit, als Sie zu stimmen haben Ihre 'nginx' und' php-fpm' für diese Anforderungen Beispiel Handhabung: Erhöhung der Hintergrund-Arbeiter-Prozesse und php-fpm Prozesse usw. Je besser Sie tune desto geringer ist die Reaktionszeit. –

+0

Ich verstehe. Ich werde für diese Empfehlungen recherchieren! Ich danke dir sehr. Ich denke wirklich, um 10 weitere Server zu erstellen, die zu einer Datenbank verbinden. Wenn dann der andere beschäftigt ist, wird er zum anderen umleiten. Ich bin so ein Neuling :) – Emman

+0

Wenn Sie für Multi-Server für die Bearbeitung von Anfragen gehen wollen. Es wird besser sein, das Konzept des Load-Balancing auf dem Server –

Antwort

0

Sie rechts über die Warteschlange sind. Wenn 1000 Benutzer gleichzeitig auf Ihre API zugreifen, warten einige von ihnen höchstwahrscheinlich.

Sie können Sie die Anzahl der gleichzeitigen Anfragen akzeptieren Feinabstimmung. Ich nehme an, Sie verwenden Nginx oder Apache. Zum Beispiel müssen Sie die Workers- und Worker-Prozesse in nginx so weit wie möglich erhöhen, aber stellen Sie sicher, dass Ihr Server damit umgehen kann.

Wenn Sie mehrere Server verwenden möchten, können Sie einen Load-Balancer verwenden, der die Anforderung vom Server dienen wird, die zur Zeit verfügbar ist oder zufällig, aus einer von ihnen.

Verwandte Themen