Ответ 1
Вы можете добавить input_dim
keyarg в конструктор KerasClassifier
:
model = KerasClassifier(build_fn=create_model, input_dim=5, nb_epoch=150, batch_size=10, verbose=0)
У меня есть следующий код, используя Keras Scikit-Learn Wrapper, который отлично работает:
from keras.models import Sequential
from keras.layers import Dense
from sklearn import datasets
from keras.wrappers.scikit_learn import KerasClassifier
from sklearn.model_selection import StratifiedKFold
from sklearn.model_selection import cross_val_score
import numpy as np
def create_model():
# create model
model = Sequential()
model.add(Dense(12, input_dim=4, init='uniform', activation='relu'))
model.add(Dense(6, init='uniform', activation='relu'))
model.add(Dense(1, init='uniform', activation='sigmoid'))
# Compile model
model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])
return model
def main():
"""
Description of main
"""
iris = datasets.load_iris()
X, y = iris.data, iris.target
NOF_ROW, NOF_COL = X.shape
# evaluate using 10-fold cross validation
seed = 7
np.random.seed(seed)
model = KerasClassifier(build_fn=create_model, nb_epoch=150, batch_size=10, verbose=0)
kfold = StratifiedKFold(n_splits=10, shuffle=True, random_state=seed)
results = cross_val_score(model, X, y, cv=kfold)
print(results.mean())
# 0.666666666667
if __name__ == '__main__':
main()
pima-indians-diabetes.data
можно загрузить здесь.
Теперь то, что я хочу сделать, - передать значение NOF_COL
в параметр функции create_model()
следующим образом
model = KerasClassifier(build_fn=create_model(input_dim=NOF_COL), nb_epoch=150, batch_size=10, verbose=0)
С помощью функции create_model()
, которая выглядит так:
def create_model(input_dim=None):
# create model
model = Sequential()
model.add(Dense(12, input_dim=input_dim, init='uniform', activation='relu'))
model.add(Dense(6, init='uniform', activation='relu'))
model.add(Dense(1, init='uniform', activation='sigmoid'))
# Compile model
model.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])
return model
Но это не дает этой ошибки:
TypeError: __call__() takes at least 2 arguments (1 given)
Какой правильный способ сделать это?
Вы можете добавить input_dim
keyarg в конструктор KerasClassifier
:
model = KerasClassifier(build_fn=create_model, input_dim=5, nb_epoch=150, batch_size=10, verbose=0)
Последний ответ больше не работает.
Альтернативой является возврат функции из create_model, так как KerasClassifier build_fn ожидает функцию:
def create_model(input_dim=None):
def model():
# create model
nn = Sequential()
nn.add(Dense(12, input_dim=input_dim, init='uniform', activation='relu'))
nn.add(Dense(6, init='uniform', activation='relu'))
nn.add(Dense(1, init='uniform', activation='sigmoid'))
# Compile model
nn.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])
return nn
return model
Или еще лучше, согласно документации
sk_params принимает как параметры модели, так и параметры подгонки. Параметры легальной модели являются аргументами build_fn. Обратите внимание, что, как и все другие оценщики в scikit-learn, build_fn должен предоставлять значения по умолчанию для своих аргументов, чтобы вы могли создать оценщик без передачи каких-либо значений в sk_params.
Таким образом, вы можете определить свою функцию следующим образом:
def create_model(number_of_features=10): # 10 is the *default value*
# create model
nn = Sequential()
nn.add(Dense(12, input_dim=number_of_features, init='uniform', activation='relu'))
nn.add(Dense(6, init='uniform', activation='relu'))
nn.add(Dense(1, init='uniform', activation='sigmoid'))
# Compile model
nn.compile(loss='binary_crossentropy', optimizer='adam', metrics=['accuracy'])
return nn
И создайте обертку:
KerasClassifier(build_fn=create_model, number_of_features=20, epochs=25, batch_size=1000, ...)