Классификация набора изображений в классы
У меня проблема, что я получаю набор изображений и должен их классифицировать.
Дело в том, что я действительно не знаю этих образов. Поэтому я планирую использовать столько дескрипторов, сколько могу найти, а затем сделать PCA для тех, кто идентифицирует только дескрипторы, которые мне полезны.
Я могу выполнять контролируемое обучение на множестве данных, если это помогает. Однако есть вероятность, что изображения связаны друг с другом. Значит, может быть развитие от Image X до Image X + 1, хотя я надеюсь, что это будет разобрано с информацией в каждом изображении.
Мой вопрос:
- Как я могу сделать это лучше всего при использовании Python? (Я хочу сначала сделать доказательство концепции, где скорость не является проблемой). Какие библиотеки я должен использовать?
- Есть ли уже примеры для изображения? Классификация такого рода? Пример использования кучи дескрипторов и приготовления их через PCA? Честно говоря, эта часть для меня страшна. Хотя я думаю, что python должен уже сделать что-то подобное для меня.
Изменить:
Я нашел опрятный набор, который я сейчас пробую для этого: http://scikit-image.org/ Кажется, есть некоторые дескрипторы. Есть ли способ сделать автоматическое извлечение функций и ранжировать функции в соответствии с их описательной силой в отношении целевой классификации? PCA должен иметь возможность автоматически оценивать.
Изменить 2:
У меня есть своя структура для хранения данных, которые теперь немного усовершенствованы. Я буду использовать систему Fat в качестве базы данных. У меня будет одна папка для каждого экземпляра комбинации классов. Поэтому, если изображение принадлежит классам 1 и 2, будет создана папка img12, содержащая эти изображения. Таким образом, я могу лучше контролировать количество данных, которые у меня есть для каждого класса.
Изменить 3:
Я нашел пример libary (sklearn) для python, который делает что-то вроде того, что я хочу делать. речь идет о распознавании рукописных цифр. Я пытаюсь преобразовать свой набор данных во что-то, что я могу использовать с этим.
вот пример, который я нашел, используя sklearn:
import pylab as pl
# Import datasets, classifiers and performance metrics
from sklearn import datasets, svm, metrics
# The digits dataset
digits = datasets.load_digits()
# The data that we are interested in is made of 8x8 images of digits,
# let have a look at the first 3 images, stored in the `images`
# attribute of the dataset. If we were working from image files, we
# could load them using pylab.imread. For these images know which
# digit they represent: it is given in the 'target' of the dataset.
for index, (image, label) in enumerate(zip(digits.images, digits.target)[:4]):
pl.subplot(2, 4, index + 1)
pl.axis('off')
pl.imshow(image, cmap=pl.cm.gray_r, interpolation='nearest')
pl.title('Training: %i' % label)
# To apply an classifier on this data, we need to flatten the image, to
# turn the data in a (samples, feature) matrix:
n_samples = len(digits.images)
data = digits.images.reshape((n_samples, -1))
# Create a classifier: a support vector classifier
classifier = svm.SVC(gamma=0.001)
# We learn the digits on the first half of the digits
classifier.fit(data[:n_samples / 2], digits.target[:n_samples / 2])
# Now predict the value of the digit on the second half:
expected = digits.target[n_samples / 2:]
predicted = classifier.predict(data[n_samples / 2:])
print("Classification report for classifier %s:\n%s\n"
% (classifier, metrics.classification_report(expected, predicted)))
print("Confusion matrix:\n%s" % metrics.confusion_matrix(expected, predicted))
for index, (image, prediction) in enumerate(
zip(digits.images[n_samples / 2:], predicted)[:4]):
pl.subplot(2, 4, index + 5)
pl.axis('off')
pl.imshow(image, cmap=pl.cm.gray_r, interpolation='nearest')
pl.title('Prediction: %i' % prediction)
pl.show()
Ответы
Ответ 1
Вы можете преобразовать изображение в вектор пикселей и выполнить PCA на этом векторе. Это может быть проще, чем пытаться вручную находить дескрипторы. Вы можете использовать numPy и sciPy в python.
Например:
import scipy.io
from numpy import *
#every row in the *.mat file is 256*256 numbers representing gray scale values
#for each pixel in an image. i.e. if XTrain.mat has 1000 lines than each line
#will be made up of 256*256 numbers and there would be 1000 images in the file.
#The following loads the image into a sciPy matrix where each row is a vector
#of length 256*256, representing an image. This code will need to be switched
#out if you have a different method of storing images.
Xtrain = scipy.io.loadmat('Xtrain.mat')["Xtrain"]
Ytrain = scipy.io.loadmat('Ytrain.mat')["Ytrain"]
Xtest = scipy.io.loadmat('Xtest.mat')["Xtest"]
Ytest = scipy.io.loadmat('Ytest.mat')["Ytest"]
learn(Xtest,Xtrain,Ytest,Ytrain,5) #this lowers the dimension from 256*256 to 5
def learn(testX,trainX,testY,trainY,n):
pcmat = PCA(trainX,n)
lowdimtrain=mat(trainX)*pcmat #lower the dimension of trainX
lowdimtest=mat(testX)*pcmat #lower the dimension of testX
#run some learning algorithm here using the low dimension matrices for example
trainset = []
knnres = KNN(lowdimtrain, trainY, lowdimtest ,k)
numloss=0
for i in range(len(knnres)):
if knnres[i]!=testY[i]:
numloss+=1
return numloss
def PCA(Xparam, n):
X = mat(Xparam)
Xtranspose = X.transpose()
A=Xtranspose*X
return eigs(A,n)
def eigs(M,k):
[vals,vecs]=LA.eig(M)
return LM2ML(vecs[:k])
def LM2ML(lm):
U=[[]]
temp = []
for i in lm:
for j in range(size(i)):
temp.append(i[0,j])
U.append(temp)
temp = []
U=U[1:]
return U
Для классификации вашего изображения вы можете использовать k-ближайших соседей. т.е. вы находите k ближайших изображений и помечаете свое изображение большинством голосов над k ближайшими изображениями. Например:
def KNN(trainset, Ytrainvec, testset, k):
eucdist = scidist.cdist(testset,trainset,'sqeuclidean')
res=[]
for dists in eucdist:
distup = zip(dists, Ytrainvec)
minVals = []
sumLabel=0;
for it in range(k):
minIndex = index_min(dists)
(minVal,minLabel) = distup[minIndex]
del distup[minIndex]
dists=numpy.delete(dists,minIndex,0)
if minLabel == 1:
sumLabel+=1
else:
sumLabel-=1
if(sumLabel>0):
res.append(1)
else:
res.append(0)
return res
Ответ 2
Я знаю, что не отвечаю на ваш вопрос напрямую. Но изображения сильно различаются: дистанционное зондирование, объекты, сцены, fMRI, biomedial, лица и т.д. Это поможет, если вы немного сузите свою классификацию и сообщите нам.
Какие дескрипторы вы используете? Большая часть кода, который я использую (а также сообщество разработчиков компьютеров), находится в MATLAB, а не на python, но я уверен, что есть похожие коды (pycv module и http://www.pythonware.com/products/pil/). Попробуйте этот дескрипторный тест, который предварительно скомпилировал самый современный код от людей в MIT: http://people.csail.mit.edu/jxiao/SUN/ Попробуйте взглянуть на GIST, HOG и SIFT, они довольно стандартизированы в зависимости от того, что вы хотите анализировать: сцены, объекты или точки соответственно.
Ответ 3
Сначала импортируйте библиотеки и извлеките снимки
from sklearn import datasets
%matplotlib inline
import sklearn as sk
import numpy as np
import matplotlib.pyplot as plt
digits = datasets.load_digits()
X_digits = digits.data
y_digits = digits.target
ind4 = np.where(y_digits==4)
ind5= np.where(y_digits==5)
plt.imshow(X_digits[1778].reshape((8,8)),cmap=plt.cm.gray_r)
Ответ 4
затем используйте эту функцию:
xx = np.arange(64)
def feature_11 (xx):
yy=xx.reshape(8,8)
feature_1 = sum(yy[0:2,:])
feature11 = sum(feature_1)
print (feature11)
return feature11
feature_11 (X_digits [тысяча семьсот семьдесят-восемь])
затем используйте lda:
из sklearn.discriminant_analysis import LinearDiscriminantAnalysis
clf = LinearDiscriminantAnalysis()
ind_all = np.arange(0, len (y_digits))
np.random.shuffle(ind_all)
ind_training = ind_all [0: int (0.8 * len (ind_all))]
ind_test = ind_all [int (0.8 * len (ind_all)):]
clf.fit(X_digits [ind_training], y_digits [ind_training])
y_predicted = clf.predict(X_digits [ind_test])
plt.subplot(211)
plt.stem(y_predicted)
plt.subplot(212)
plt.stem(y_digits [ind_test], 'r')
plt.stem(y_digits [ind_test] - y_predicted, 'r')
sum (y_predicted == y_digits [ind_test])/len (y_predicted)