PySpark: как заполнять значения в dataframe для определенных столбцов?

У меня есть следующий образец DataFrame:

a    | b    | c   | 

1    | 2    | 4   |
0    | null | null| 
null | 3    | 4   |

И я хочу заменить нулевые значения только в первых двух столбцах - столбец "a" и "b":

a    | b    | c   | 

1    | 2    | 4   |
0    | 0    | null| 
0    | 3    | 4   |

Вот код для создания образца dataframe:

rdd = sc.parallelize([(1,2,4), (0,None,None), (None,3,4)])
df2 = sqlContext.createDataFrame(rdd, ["a", "b", "c"])

Я знаю, как заменить все нулевые значения, используя:

df2 = df2.fillna(0)

И когда я пробую это, я теряю третий столбец:

df2 = df2.select(df2.columns[0:1]).fillna(0)

Ответы

Ответ 1

df.fillna(0, subset=['a', 'b'])

Существует параметр с именем subset для выбора столбцов, если только ваша версия спарк ниже 1.3.1

Ответ 2

Используйте словарь для заполнения значений определенных столбцов:

df.fillna( { 'a':0, 'b':0 } )