Сохранить модель MinMaxScaler в sklearn
Я использую модель MinMaxScaler
в sklearn, чтобы нормализовать возможности модели.
training_set = np.random.rand(4,4)*10
training_set
[[ 6.01144787, 0.59753007, 2.0014852 , 3.45433657],
[ 6.03041646, 5.15589559, 6.64992437, 2.63440202],
[ 2.27733136, 9.29927394, 0.03718093, 7.7679183 ],
[ 9.86934288, 7.59003904, 6.02363739, 2.78294206]]
scaler = MinMaxScaler()
scaler.fit(training_set)
scaler.transform(training_set)
[[ 0.49184811, 0. , 0.29704831, 0.15972182],
[ 0.4943466 , 0.52384506, 1. , 0. ],
[ 0. , 1. , 0. , 1. ],
[ 1. , 0.80357559, 0.9052909 , 0.02893534]]
Теперь я хочу использовать тот же скейлер для нормализации тестового набора:
[[ 8.31263467, 7.99782295, 0.02031658, 9.43249727],
[ 1.03761228, 9.53173021, 5.99539478, 4.81456067],
[ 0.19715961, 5.97702519, 0.53347403, 5.58747666],
[ 9.67505429, 2.76225253, 7.39944931, 8.46746594]]
Но я не хочу, чтобы все время использовать scaler.fit()
с данными тренировок. Есть ли способ сохранить скейлер и загрузить его позже из другого файла?
Ответы
Ответ 1
Так что я на самом деле не эксперт в этом, но из небольшого исследования и нескольких полезных ссылок, я думаю, что pickle
и sklearn.externals.joblib
станут вашими друзьями здесь.
pickle
позволяет вам сохранять модели или "сбрасывать" модели в файл.
Я думаю, что эта ссылка также полезна. Это говорит о создании модели постоянства. То, что вы захотите попробовать это:
# could use: import pickle... however let do something else
from sklearn.externals import joblib
# this is more efficient than pickle for things like large numpy arrays
# ... which sklearn models often have.
# then just 'dump' your file
joblib.dump(clf, 'my_dope_model.pkl')
Здесь вы можете узнать больше о внешнем виде склеарна.
Дайте мне знать, если это не поможет, или я чего-то не понимаю в вашей модели.
Ответ 2
Даже лучше, чем pickle
(который создает гораздо большие файлы, чем этот метод), вы можете использовать встроенный инструмент sklearn
:
from sklearn.externals import joblib
scaler_filename = "scaler.save"
joblib.dump(scaler, scaler_filename)
# And now to load...
scaler = joblib.load(scaler_filename)
Ответ 3
Вы можете использовать pickle
для сохранения масштабирования:
import pickle
scalerfile = 'scaler.sav'
pickle.dump(scaler, open(scalerfile, 'wb'))
Загрузите его обратно:
import pickle
scalerfile = 'scaler.sav'
scaler = pickle.load(open(scalerfile, 'rb'))
test_scaled_set = scaler.transform(test_set)
Ответ 4
Просто обратите внимание, что sklearn.externals.joblib
устарел и заменен старой joblib
, которую можно установить с помощью pip install joblib
:
import joblib
joblib.dump(my_scaler, 'scaler.pkl')
my_scaler = joblib.load('scaler.pkl')
Документы для joblib.dump()
и joblib.load()
.
Ответ 5
Лучший способ сделать это - создать конвейер ML следующим образом:
from sklearn.pipeline import make_pipeline
from sklearn.preprocessing import MinMaxScaler
from sklearn.externals import joblib
pipeline = make_pipeline(MinMaxScaler(),YOUR_ML_MODEL() )
model = pipeline.fit(X_train, y_train)
Теперь вы можете сохранить его в файл:
joblib.dump(model, 'filename.mod')
Позже вы можете загрузить его так:
model = joblib.load('filename.mod')