Ich habe einen Scotty API-Server, der eine Elasticsearch Abfrage erstellt, Ergebnisse aus ES abruft und den JSON rendert.GHC pro Thread GC-Strategie
Im Vergleich zu anderen Servern wie Phoenix und Gin, ich bin höhere CPU-Auslastung und Durchsatz für die Bedienung ES Antworten bekommen, indem Sie BloodHound aber Gin und Phoenix waren Größen besser als Scotty in Speichereffizienz.
Stats Scotty
wrk -t30 -c100 -d30s "http://localhost:3000/filters?apid=1&hfa=true"
Running 30s test @ http://localhost:3000/filters?apid=1&hfa=true
30 threads and 100 connections
Thread Stats Avg Stdev Max +/- Stdev
Latency 192.04ms 305.45ms 1.95s 83.06%
Req/Sec 133.42 118.21 1.37k 75.54%
68669 requests in 30.10s, 19.97MB read
Requests/sec: 2281.51
Transfer/sec: 679.28KB
Diese Statistiken sind auf meinem Mac mit GHC 7.10.1
Prozessor Info 2.5GHx i5
Speicher-Info 8 GB 1600 MHz DDR3
installiert Ich bin ganz beeindruckt durch die leichte Thread-basierte Parallelität von GHC, aber die Speichereffizienz bleibt ein großes Problem.
Speichernutzung Profil lieferte mir die folgenden Statistiken
39,222,354,072 bytes allocated in the heap
277,239,312 bytes copied during GC
522,218,848 bytes maximum residency (14 sample(s))
761,408 bytes maximum slop
1124 MB total memory in use (0 MB lost due to fragmentation)
Tot time (elapsed) Avg pause Max pause
Gen 0 373 colls, 373 par 2.802s 0.978s 0.0026s 0.0150s
Gen 1 14 colls, 13 par 0.534s 0.166s 0.0119s 0.0253s
Parallel GC work balance: 42.38% (serial 0%, perfect 100%)
TASKS: 18 (1 bound, 17 peak workers (17 total), using -N4)
SPARKS: 0 (0 converted, 0 overflowed, 0 dud, 0 GC'd, 0 fizzled)
INIT time 0.001s ( 0.008s elapsed)
MUT time 31.425s (36.161s elapsed)
GC time 3.337s ( 1.144s elapsed)
EXIT time 0.000s ( 0.001s elapsed)
Total time 34.765s (37.314s elapsed)
Alloc rate 1,248,117,604 bytes per MUT second
Productivity 90.4% of total user, 84.2% of total elapsed
gc_alloc_block_sync: 27215
whitehole_spin: 0
gen[0].sync: 8919
gen[1].sync: 30902
Phoenix nie mehr als 150 MB hat, während Gin viel niedriger Speicher nahm.
Ich glaube, dass GHC Mark und Sweep-Strategie für GC verwendet. Ich glaube auch, es wäre besser gewesen, pro-thread inkrementelle GC-Strategie zu verwenden, die Erlang VM für bessere Speichereffizienz ähnlich ist.
Und durch die Interpretation von Don Stewarts Antwort auf eine related question muss es eine Möglichkeit geben, die GC-Strategie in GHC zu ändern.
Ich bemerkte auch, dass die Speichernutzung stabil und ziemlich niedrig blieb, wenn der Nebenläufigkeitsgrad niedrig war, also denke ich, dass die Speicherbelegung nur dann aufgeht, wenn die Nebenläufigkeit ziemlich hoch ist.
Alle Ideen/Hinweise, um dieses Problem zu lösen.
Was ist deine aktuelle * Frage *? Wie kann die Speichernutzung reduziert werden? – MathematicalOrchid
Breit ja. Genauer gesagt, wenn ich einen Weg finden könnte, die GC-Strategie pro Thread in GHC zu aktivieren. – user2512324
Ich hatte den Eindruck, dass neuere Versionen von GHC * bereits pro Thread-GC laufen, aber da liege ich vielleicht falsch ... – MathematicalOrchid