def weighted_logaddexp(x, wx, y, wy):
# Returns:
# log[(wx * exp(x) + wy * exp_y)/(wx + wy)]
# = log(wx/(wx+wy)) + x + log(1 + exp(y - x + log(wy)-log(wx)))
# = log1p(-wy/(wx+wy)) + x + log1p((wy exp_y)/(wx exp(x)))
if wx == 0.0:
return y
if wy == 0.0:
return x
total_w = wx + wy
first_term = np.where(wx > wy,
np.log1p(-wy/total_w),
np.log1p(-wx/total_w))
exp_x = np.exp(x)
exp_y = np.exp(y)
wx_exp_x = wx * exp_x
wy_exp_y = wy * exp_y
return np.where(wy_exp_y < wx_exp_x,
x + np.log1p(wy_exp_y/wx_exp_x),
y + np.log1p(wx_exp_x/wy_exp_y)) + first_term
Hier ist, wie ich die beiden Lösungen miteinander verglichen:
import math
import numpy as np
import mpmath as mp
from tools.numpy import weighted_logaddexp
def average_error(ideal_function, test_function, n_args):
x_y = [np.linspace(0.1, 3, 20) for _ in range(n_args)]
xs_ys = np.meshgrid(*x_y)
def e(*args):
return ideal_function(*args) - test_function(*args)
e = np.frompyfunc(e, n_args, 1)
error = e(*xs_ys) ** 2
return np.mean(error)
def ideal_function(x, wx, y, wy):
return mp.log((mp.exp(x) * wx + mp.exp(y) * wy)/mp.fadd(wx, wy))
def test_function(x, wx, y, wy):
return np.logaddexp(x + math.log(wx), y + math.log(wy)) - math.log(wx + wy)
mp.prec = 100
print(average_error(ideal_function, weighted_logaddexp, 4))
print(average_error(ideal_function, test_function, 4))
Sieht aus wie es wahrscheinlich besser ist als das, was ich tat, was ich als Antwort zum Vergleich hinzufügen. –
Für jeden, der liest, habe ich das mit der Arbitrary-Precision-Bibliothek 'mpmath' getestet und festgestellt, dass es viel besser ist als meine Lösung. –
@NeilG Ja, ich nehme an, egal wie du es umschreibst, du wirst immer noch in Präzision/Überlauf mit 64-Bit-Schwimmern usw. verlieren, wenn du eine Exponential von großen Zahlen nimmst und das Log zurückrechnest. 'mpmath' scheint hier eine gute Wahl zu sein, obwohl es langsamer sein wird. – rth