2017-07-05 2 views
0

passen Ich habe ein Problem. Ich möchte 3D Faltungs-U-Net machen. Zu diesem Zweck benutze ich Keras.Kann Daten nicht zu 3d faltendem U-Netz Keras

Meine Daten sind MRI-Bilder von Data Science Bowl 2017 Competition. Alle MRI wurden in numpy Arrays gespeichert (alle Pixel von 0 bis 1 skaliert) mit Form:

data_ch.shape 
(94, 50, 50, 50, 1) 

94 - Patienten, 50 MRT-Scheiben 50x50 Bilder, 1 Kanal: The patients MRI from dataset

Ich möchte machen 3D Convolutional U-net, also die Ein- und Ausgänge dieses Netzes sind die gleichen 3D-Arrays. Die 3D-U-net:

input_img= Input(shape=(data_ch.shape[1], data_ch.shape[2], data_ch.shape[3], data_ch.shape[4])) 
x=Conv3D(filters=8, kernel_size=(3, 3, 3), activation='relu', padding='same')(input_img) 
x=MaxPooling3D(pool_size=(2, 2, 2), padding='same')(x) 
x=Conv3D(filters=8, kernel_size=(3, 3, 3), activation='relu', padding='same')(x) 
x=MaxPooling3D(pool_size=(2, 2, 2), padding='same')(x) 

x=UpSampling3D(size=(2, 2, 2))(x) 
x=Conv3D(filters=8, kernel_size=(3, 3, 3), activation='relu', padding='same')(x) # PADDING IS NOT THE SAME!!!!! 
x=UpSampling3D(size=(2, 2, 2))(x) 
x=Conv3D(filters=1, kernel_size=(3, 3, 3), activation='sigmoid')(x) 

model=Model(input_img, x) 
model.compile(optimizer='adadelta', loss='binary_crossentropy') 

model.summary() 
Layer (type)     Output Shape    Param # 
================================================================= 
input_5 (InputLayer)   (None, 50, 50, 50, 1)  0   
_________________________________________________________________ 
conv3d_27 (Conv3D)   (None, 50, 50, 50, 8)  224  
_________________________________________________________________ 
max_pooling3d_12 (MaxPooling (None, 25, 25, 25, 8)  0   
_________________________________________________________________ 
conv3d_28 (Conv3D)   (None, 25, 25, 25, 8)  1736  
_________________________________________________________________ 
max_pooling3d_13 (MaxPooling (None, 13, 13, 13, 8)  0   
_________________________________________________________________ 
up_sampling3d_12 (UpSampling (None, 26, 26, 26, 8)  0   
_________________________________________________________________ 
conv3d_29 (Conv3D)   (None, 26, 26, 26, 8)  1736  
_________________________________________________________________ 
up_sampling3d_13 (UpSampling (None, 52, 52, 52, 8)  0   
_________________________________________________________________ 
conv3d_30 (Conv3D)   (None, 50, 50, 50, 1)  217  
================================================================= 
Total params: 3,913 
Trainable params: 3,913 
Non-trainable params: 0 

Aber, wenn ich versuchte, Daten zu diesem Netz zu passen:

model.fit(data_ch, data_ch, epochs=1, batch_size=10, shuffle=True, verbose=1) 

das Programm angezeigt eine Fehlermeldung:

ValueError        Traceback (most recent call last) 
C:\Users\Taranov\Anaconda3\lib\site-packages\theano\compile\function_module.py in __call__(self, *args, **kwargs) 
    883    outputs =\ 
--> 884     self.fn() if output_subset is None else\ 
    885     self.fn(output_subset=output_subset) 

ValueError: CudaNdarray_CopyFromCudaNdarray: need same dimensions for dim 1, destination=13, source=14 

During handling of the above exception, another exception occurred: 

ValueError        Traceback (most recent call last) 
<ipython-input-26-b334d38d9608> in <module>() 
----> 1 model.fit(data_ch, data_ch, epochs=1, batch_size=10, shuffle=True, verbose=1) 

C:\Users\Taranov\Anaconda3\lib\site-packages\keras\engine\training.py in fit(self, x, y, batch_size, epochs, verbose, callbacks, validation_split, validation_data, shuffle, class_weight, sample_weight, initial_epoch, **kwargs) 
    1496        val_f=val_f, val_ins=val_ins, shuffle=shuffle, 
    1497        callback_metrics=callback_metrics, 
-> 1498        initial_epoch=initial_epoch) 
    1499 
    1500  def evaluate(self, x, y, batch_size=32, verbose=1, sample_weight=None): 

C:\Users\Taranov\Anaconda3\lib\site-packages\keras\engine\training.py in _fit_loop(self, f, ins, out_labels, batch_size, epochs, verbose, callbacks, val_f, val_ins, shuffle, callback_metrics, initial_epoch) 
    1150     batch_logs['size'] = len(batch_ids) 
    1151     callbacks.on_batch_begin(batch_index, batch_logs) 
-> 1152     outs = f(ins_batch) 
    1153     if not isinstance(outs, list): 
    1154      outs = [outs] 

C:\Users\Taranov\Anaconda3\lib\site-packages\keras\backend\theano_backend.py in __call__(self, inputs) 
    1156  def __call__(self, inputs): 
    1157   assert isinstance(inputs, (list, tuple)) 
-> 1158   return self.function(*inputs) 
    1159 
    1160 

C:\Users\Taranov\Anaconda3\lib\site-packages\theano\compile\function_module.py in __call__(self, *args, **kwargs) 
    896      node=self.fn.nodes[self.fn.position_of_error], 
    897      thunk=thunk, 
--> 898      storage_map=getattr(self.fn, 'storage_map', None)) 
    899    else: 
    900     # old-style linkers raise their own exceptions 

C:\Users\Taranov\Anaconda3\lib\site-packages\theano\gof\link.py in raise_with_op(node, thunk, exc_info, storage_map) 
    323   # extra long error message in that case. 
    324   pass 
--> 325  reraise(exc_type, exc_value, exc_trace) 
    326 
    327 

C:\Users\Taranov\Anaconda3\lib\site-packages\six.py in reraise(tp, value, tb) 
    683    value = tp() 
    684   if value.__traceback__ is not tb: 
--> 685    raise value.with_traceback(tb) 
    686   raise value 
    687 

C:\Users\Taranov\Anaconda3\lib\site-packages\theano\compile\function_module.py in __call__(self, *args, **kwargs) 
    882   try: 
    883    outputs =\ 
--> 884     self.fn() if output_subset is None else\ 
    885     self.fn(output_subset=output_subset) 
    886   except Exception: 

ValueError: CudaNdarray_CopyFromCudaNdarray: need same dimensions for dim 1, destination=13, source=14 
Apply node that caused the error: GpuAlloc(GpuDimShuffle{0,2,x,3,4,1}.0, Shape_i{0}.0, TensorConstant{13}, TensorConstant{2}, TensorConstant{13}, TensorConstant{13}, TensorConstant{8}) 
Toposort index: 163 
Inputs types: [CudaNdarrayType(float32, (False, False, True, False, False, False)), TensorType(int64, scalar), TensorType(int64, scalar), TensorType(int8, scalar), TensorType(int64, scalar), TensorType(int64, scalar), TensorType(int64, scalar)] 
Inputs shapes: [(10, 14, 1, 14, 14, 8),(),(),(),(),(),()] 
Inputs strides: [(21952, 196, 0, 14, 1, 2744),(),(),(),(),(),()] 
Inputs values: ['not shown', array(10, dtype=int64), array(13, dtype=int64), array(2, dtype=int8), array(13, dtype=int64), array(13, dtype=int64), array(8, dtype=int64)] 
Outputs clients: [[GpuReshape{5}(GpuAlloc.0, MakeVector{dtype='int64'}.0)]] 

HINT: Re-running with most Theano optimization disabled could give you a back-trace of when this node was created. This can be done with by setting the Theano flag 'optimizer=fast_compile'. If that does not work, Theano optimizations can be disabled with 'optimizer=None'. 
HINT: Use the Theano flag 'exception_verbosity=high' for a debugprint and storage map footprint of this apply node. 

Ich versuchte zu folgen empfehlungen und verwenden sie dieano flags:

import theano 
import os 
os.environ["THEANO_FLAGS"] = "mode=FAST_RUN,device=gpu,floatX=float32, optimizer='None',exception_verbosity=high" 

Aber es funktioniert immer noch nicht.

Können Sie mir helfen? Vielen Dank!

+0

Das Problem ist nicht in dem Code, den Sie gepostet haben. Wie nennst du die "Fit" -Methode? Und welche Formen haben alle Arrays, die Sie an diese Methode übergeben? –

+0

Ich habe mein Fragenformular bearbeitet. Ich habe model.fit verwendet (data_ch, data_ch, epoches = 1, batch_size = 10, shuffle = True, verbose = 1). Die Form der Arrays - (94, 50, 50, 50, 1). 94 Patienten, 50 Dias, 50x50 Pixel, 1 Kanal –

Antwort

0

Ok .... das klingt komisch, aber MaxPooling3D hat eine Art Bug mit padding='same'. Also schrieb ich Ihren Code ohne sie, und fügte hinzu, nur eine anfängliche Polsterung, um Ihre Abmessungen kompatibel:

import keras.backend as K 

inputShape = (data_ch.shape[1], data_ch.shape[2], data_ch.shape[3], data_ch.shape[4]) 
paddedShape = (data_ch.shape[1]+2, data_ch.shape[2]+2, data_ch.shape[3]+2, data_ch.shape[4]) 

#initial padding 
input_img= Input(shape=inputShape) 
x = Lambda(lambda x: K.spatial_3d_padding(x, padding=((1, 1), (1, 1), (1, 1))), 
    output_shape=paddedShape)(input_img) #Lambda layers require output_shape 

#your original code without padding for MaxPooling layers (replace input_img with x) 
x=Conv3D(filters=8, kernel_size=3, activation='relu', padding='same')(x) 
x=MaxPooling3D(pool_size=2)(x) 
x=Conv3D(filters=8, kernel_size=3, activation='relu', padding='same')(x) 
x=MaxPooling3D(pool_size=2)(x) 

x=UpSampling3D(size=2)(x) 
x=Conv3D(filters=8, kernel_size=3, activation='relu', padding='same')(x) # PADDING IS NOT THE SAME!!!!! 
x=UpSampling3D(size=2)(x) 
x=Conv3D(filters=1, kernel_size=3, activation='sigmoid')(x) 

model=Model(input_img, x) 
model.compile(optimizer='adadelta', loss='binary_crossentropy') 
model.summary() 
print(model.predict(data_ch)[1]) 
model.fit(data_ch,data_ch,epochs=1,verbose=2,batch_size=10) 
+0

Es funktioniert! Vielen Dank!!! Habe ich dich richtig verstanden, dass dieser Fehler nur mit padding = 'same' zusammenhängt? –

+0

Ja, es bezieht sich nur auf "padding = 'selbe" in MaxPooling-Layern. (In der Theorie sollten wir es einfach nicht benutzen, denke ich ...). Es soll in Convolutional-Layern verwendet werden. –

+0

Daniel, es tut mir leid, noch eine Frage. Kannst du erklären, was macht K.spatial_3d_padding? Ich kann es nicht verstehen ((Ist das dasselbe wie padding = 'selbe' im Pooling?) –

0

Versuchen Sie, die Chargengröße um so etwas wie 2 zu reduzieren, und wenn Sie sehen, Ihr Netzwerk braucht mehr GPU, so versuchen das auch aufwerten.