Ответ 1
from sklearn.externals import joblib
joblib.dump(grid.best_estimator_, 'filename.pkl')
Если вы хотите сбросить свой объект в один файл - используйте:
joblib.dump(grid.best_estimator_, 'filename.pkl', compress = 1)
После определения лучших параметров с помощью pipeline
и GridSearchCV
, как мне pickle
/joblib
этот процесс повторно использовать позже? Я вижу, как это сделать, когда это один классификатор...
from sklearn.externals import joblib
joblib.dump(clf, 'filename.pkl')
Но как сохранить этот общий pipeline
с лучшими параметрами после выполнения и завершения gridsearch
?
Я пробовал:
joblib.dump(grid, 'output.pkl')
- Но это сбрасывало каждый gridsearch
попытка (много файлов)joblib.dump(pipeline, 'output.pkl')
- Но я
не думайте, что содержит лучшие параметрыX_train = df['Keyword']
y_train = df['Ad Group']
pipeline = Pipeline([
('tfidf', TfidfVectorizer()),
('sgd', SGDClassifier())
])
parameters = {'tfidf__ngram_range': [(1, 1), (1, 2)],
'tfidf__use_idf': (True, False),
'tfidf__max_df': [0.25, 0.5, 0.75, 1.0],
'tfidf__max_features': [10, 50, 100, 250, 500, 1000, None],
'tfidf__stop_words': ('english', None),
'tfidf__smooth_idf': (True, False),
'tfidf__norm': ('l1', 'l2', None),
}
grid = GridSearchCV(pipeline, parameters, cv=2, verbose=1)
grid.fit(X_train, y_train)
#These were the best combination of tuning parameters discovered
##best_params = {'tfidf__max_features': None, 'tfidf__use_idf': False,
## 'tfidf__smooth_idf': False, 'tfidf__ngram_range': (1, 2),
## 'tfidf__max_df': 1.0, 'tfidf__stop_words': 'english',
## 'tfidf__norm': 'l2'}
from sklearn.externals import joblib
joblib.dump(grid.best_estimator_, 'filename.pkl')
Если вы хотите сбросить свой объект в один файл - используйте:
joblib.dump(grid.best_estimator_, 'filename.pkl', compress = 1)