Ein PyPy-Callback, der perfekt funktioniert (in einer Endlosschleife), wenn er (einfach) als Methode eines Python-Objekts implementiert wird, segelt nach ungefähr 100 Iterationen, wenn ich Python verschiebe Objekt in einen separaten Multiprocessing-Prozess.Callback von "multiprocessing" mit CFFI segfaults nach ~ 100 Iterationen
Im Haupt Code ich habe:
import multiprocessing as mp
class Task(object):
def __init__(self, com, lib):
self.com = com # communication queue
self.lib = lib # ffi library
self.proc = mp.Process(target=self.spawn, args=(self.com,))
self.register_callback()
def spawn(self, com):
print('%s spawned.'%self.name)
# loop (keeping 'self' alive) until BREAK:
while True:
cmd = com.get()
if cmd == self.BREAK:
break
print("%s stopped."%self.name)
@ffi.calback("int(void*, Data*"): # old cffi (ABI mode)
def callback(self, data):
# <work on data>
return 1
def register_callback(self):
s = ffi.new_handle(self)
self.lib.register_callback(s, self.callback) # C-call
Die Idee ist, dass mehrere Aufgaben gleichzeitig eine gleiche Anzahl von Callbacks dienen sollten. Ich habe keine Ahnung, was den Segfault verursachen könnte, zumal es für die ersten ~ 100 Iterationen gut läuft. Hilfe sehr geschätzt!