2017-01-18 1 views
6

mit einem einfachen Pandas-Datenrahmen mit 2 Spalten, z.B. id und value, wobei value entweder 0 oder 1 ist Ich möchte 10% von allen value==1 zufällig mit 0 ersetzen.Pandas ersetzen zufällig k Prozent

Wie kann ich dieses Verhalten mit Pandas erreichen?

Antwort

8

pandas Antwort

  • Verwendung query zu dfvalue == 1 mit nur
  • sample(frac=.1) Verwendung gefiltert werden 10% von denen
  • den Index des Ergebnisses verwenden zu nehmen zuweisen Null

df.loc[ 
    df.query('value == 1').sample(frac=.1).index, 
    'value' 
] = 0 

alternative numpy Antwort

  • erhalten boolean Array von wo df['value'] ist 1
  • zufällige Anordnung von 10% Nullen zuweisen und 90% diejenigen

v = df.value.values == 1 
df.loc[v, 'value'] = np.random.choice((0, 1), v.sum(), p=(.1, .9)) 
+0

Sie werden 'Query'-Funktion Sponsor :-) – Boud

+0

@Boud Ich neige dazu, auf eine bestimmte Funktion zu konzentrieren und viele Fragen damit zu beantworten. – piRSquared

2

können Sie wahrscheinlich numpy.random.choice verwenden:

>>> idx = df.index[df.value==1] 
>>> df.loc[np.random.choice(idx, size=idx.size/10, replace=False)].value = 0 
+0

das OP möchte nach dem Zufallsprinzip nur die Zeilen ersetzen, die '1' sind, nicht eine zufällige Probe des gesamten df – EdChum

+0

yep ich habe das verpasst, werde die Antwort ändern –

2

hier ein NumPy Ansatz mit np.random.choice -

a = df.value.values # get a view into value col 
idx = np.flatnonzero(a) # get the nonzero indices 

# Finally select unique 10% from those indices and set 0s there 
a[np.random.choice(idx,size=int(0.1*len(idx)),replace=0)] = 0 

Probelauf -

In [237]: df = pd.DataFrame(np.random.randint(0,2,(100,2)),columns=['id','value']) 

In [238]: (df.value==1).sum() # Original Count of 1s in df.value column 
Out[238]: 53 

In [239]: a = df.value.values 

In [240]: idx = np.flatnonzero(a) 

In [241]: a[np.random.choice(idx,size=int(0.1*len(idx)),replace=0)] = 0 

In [242]: (df.value==1).sum() # New count of 1s in df.value column 
Out[242]: 48 

Alternativ

, ein bisschen mehr Pandas nähern -

idx = np.flatnonzero(df['value']) 
df.ix[np.random.choice(idx,size=int(0.1*len(idx)),replace=0),'value'] = 0 

Runtime Test

Alle Ansätze bisher geschrieben -

def f1(df): #@piRSquared's soln1 
    df.loc[df.query('value == 1').sample(frac=.1).index,'value'] = 0 

def f2(df): #@piRSquared's soln2 
    v = df.value.values == 1 
    df.loc[v, 'value'] = np.random.choice((0, 1), v.sum(), p=(.1, .9)) 

def f3(df): #@Roman Pekar's soln 
    idx = df.index[df.value==1] 
    df.loc[np.random.choice(idx, size=idx.size/10, replace=False)].value = 0 

def f4(df): #@Mine soln1 
    a = df.value.values 
    idx = np.flatnonzero(a) 
    a[np.random.choice(idx,size=int(0.1*len(idx)),replace=0)] = 0 

def f5(df): #@Mine soln2 
    idx = np.flatnonzero(df['value']) 
    df.ix[np.random.choice(idx,size=int(0.1*len(idx)),replace=0),'value'] = 0 

Timings -

In [2]: # Setup inputs 
    ...: df = pd.DataFrame(np.random.randint(0,2,(10000,2)),columns=['id','value']) 
    ...: df1 = df.copy() 
    ...: df2 = df.copy() 
    ...: df3 = df.copy() 
    ...: df4 = df.copy() 
    ...: df5 = df.copy() 
    ...: 

In [3]: # Timings 
    ...: %timeit f1(df1) 
    ...: %timeit f2(df2) 
    ...: %timeit f3(df3) 
    ...: %timeit f4(df4) 
    ...: %timeit f5(df5) 
    ...: 
100 loops, best of 3: 3.96 ms per loop 
1000 loops, best of 3: 844 µs per loop 
1000 loops, best of 3: 1.62 ms per loop 
10000 loops, best of 3: 163 µs per loop 
1000 loops, best of 3: 663 µs per loop 
Verwandte Themen