Как разделить пользовательский набор данных на обучающие и тестовые наборы данных?
import pandas as pd
import numpy as np
import cv2
from torch.utils.data.dataset import Dataset
class CustomDatasetFromCSV(Dataset):
def __init__(self, csv_path, transform=None):
self.data = pd.read_csv(csv_path)
self.labels = pd.get_dummies(self.data['emotion']).as_matrix()
self.height = 48
self.width = 48
self.transform = transform
def __getitem__(self, index):
pixels = self.data['pixels'].tolist()
faces = []
for pixel_sequence in pixels:
face = [int(pixel) for pixel in pixel_sequence.split(' ')]
# print(np.asarray(face).shape)
face = np.asarray(face).reshape(self.width, self.height)
face = cv2.resize(face.astype('uint8'), (self.width, self.height))
faces.append(face.astype('float32'))
faces = np.asarray(faces)
faces = np.expand_dims(faces, -1)
return faces, self.labels
def __len__(self):
return len(self.data)
Это то, что я мог бы сделать, используя ссылки из других репозиториев. Тем не менее, я хочу разбить этот набор данных на поезд и тест.
Как я могу сделать это внутри этого класса? Или мне нужно сделать отдельный класс для этого?
Ответы
Ответ 1
Использование Pytorch SubsetRandomSampler
:
import torch
import numpy as np
from torchvision import datasets
from torchvision import transforms
from torch.utils.data.sampler import SubsetRandomSampler
class CustomDatasetFromCSV(Dataset):
def __init__(self, csv_path, transform=None):
self.data = pd.read_csv(csv_path)
self.labels = pd.get_dummies(self.data['emotion']).as_matrix()
self.height = 48
self.width = 48
self.transform = transform
def __getitem__(self, index):
# This method should return only 1 sample and label
# (according to "index"), not the whole dataset
# So probably something like this for you:
pixel_sequence = self.data['pixels'][index]
face = [int(pixel) for pixel in pixel_sequence.split(' ')]
face = np.asarray(face).reshape(self.width, self.height)
face = cv2.resize(face.astype('uint8'), (self.width, self.height))
label = self.labels[index]
return face, label
def __len__(self):
return len(self.labels)
dataset = CustomDatasetFromCSV(my_path)
batch_size = 16
validation_split = .2
shuffle_dataset = True
random_seed= 42
# Creating data indices for training and validation splits:
dataset_size = len(dataset)
indices = list(range(dataset_size))
split = int(np.floor(validation_split * dataset_size))
if shuffle_dataset :
np.random.seed(random_seed)
np.random.shuffle(indices)
train_indices, val_indices = indices[split:], indices[:split]
# Creating PT data samplers and loaders:
train_sampler = SubsetRandomSampler(train_indices)
valid_sampler = SubsetRandomSampler(val_indices)
train_loader = torch.utils.data.DataLoader(dataset, batch_size=batch_size,
sampler=train_sampler)
validation_loader = torch.utils.data.DataLoader(dataset, batch_size=batch_size,
sampler=valid_sampler)
# Usage Example:
num_epochs = 10
for epoch in range(num_epochs):
# Train:
for batch_index, (faces, labels) in enumerate(train_loader):
# ...
Ответ 2
Начиная с PyTorch 0.4.1 вы можете использовать random_split
:
train_size = int(0.8 * len(full_dataset))
test_size = len(full_dataset) - train_size
train_dataset, test_dataset = torch.utils.data.random_split(full_dataset, [train_size, test_size])
Ответ 3
Текущие ответы делают случайные расщепления, что имеет недостаток, заключающийся в том, что количество выборок в классе не гарантируется быть сбалансированным. Это особенно проблематично, если вы хотите иметь небольшое количество образцов в классе. Например, MNIST имеет 60000 примеров, т.е. 6000 на цифру. Предположим, что вы хотите только 30 примеров на цифру в вашем тренировочном наборе. В этом случае случайное разделение может привести к дисбалансу между классами (одна цифра с большим количеством обучающих данных, чем другие). Таким образом, вы хотите убедиться, что каждая цифра точно имеет только 30 меток. Это называется стратифицированной выборкой.
Один из способов сделать это - использовать интерфейс сэмплера в Pytorch, а пример кода здесь.
Еще один способ сделать это просто взломать свой путь через :). Например, ниже приведена простая реализация MNIST, где ds
- это набор данных MNIST, а k
- количество выборок, необходимых для каждого класса.
def sampleFromClass(ds, k):
class_counts = {}
train_data = []
train_label = []
test_data = []
test_label = []
for data, label in ds:
c = label.item()
class_counts[c] = class_counts.get(c, 0) + 1
if class_counts[c] <= k:
train_data.append(data)
train_label.append(torch.unsqueeze(label, 0))
else:
test_data.append(data)
test_label.append(torch.unsqueeze(label, 0))
train_data = torch.cat(train_data)
for ll in train_label:
print(ll)
train_label = torch.cat(train_label)
test_data = torch.cat(test_data)
test_label = torch.cat(test_label)
return (TensorDataset(train_data, train_label),
TensorDataset(test_data, test_label))
Вы можете использовать эту функцию следующим образом:
def main():
train_ds = datasets.MNIST('../data', train=True, download=True,
transform=transforms.Compose([
transforms.ToTensor()
]))
train_ds, test_ds = sampleFromClass(train_ds, 3)
Ответ 4
Пользовательский набор данных имеет особое значение в PyTorch, но я думаю, что вы имели в виду любой набор данных. Давайте посмотрим на набор данных MNIST (это, вероятно, самый известный набор данных для начинающих).
import torch, torchvision
import torchvision.datasets as datasets
from torch.utils.data import DataLoader, Dataset, TensorDataset
train_loader = DataLoader(
torchvision.datasets.MNIST('/data/mnist', train=True, download=True,
transform=torchvision.transforms.Compose([
torchvision.transforms.ToTensor(),
torchvision.transforms.Normalize(
(0.5,), (0.5,))
])),
batch_size=16, shuffle=False)
print(train_loader.dataset.data.shape)
test_ds = train_loader.dataset.data[:50000, :, :]
valid_ds = train_loader.dataset.data[50000:, :, :]
print(test_ds.shape)
print(valid_ds.shape)
test_dst = train_loader.dataset.targets.data[:50000]
valid_dst = train_loader.dataset.targets.data[50000:]
print(test_dst, test_dst.shape)
print(valid_dst, valid_dst.shape)
Что это превзойдет, это размер оригинала [60000, 28, 28]
, затем расщепление [50000, 28, 28]
для теста и [10000, 28, 28]
для проверки:
torch.Size([60000, 28, 28])
torch.Size([50000, 28, 28])
torch.Size([10000, 28, 28])
tensor([5, 0, 4, ..., 8, 4, 8]) torch.Size([50000])
tensor([3, 8, 6, ..., 5, 6, 8]) torch.Size([10000])
Дополнительная информация, если вы действительно планируете соединить изображения и метки (цели) вместе
bs = 16
test_dl = DataLoader(TensorDataset(test_ds, test_dst), batch_size=bs, shuffle=True)
for xb, yb in test_dl:
# Do your work
Ответ 5
Это присоединенный класс PyTorch Subset
содержащий метод random_split
. Обратите внимание, что этот метод является базовым для SubsetRandomSampler
.
Для MNIST, если мы используем random_split
:
loader = DataLoader(
torchvision.datasets.MNIST('/data/mnist', train=True, download=True,
transform=torchvision.transforms.Compose([
torchvision.transforms.ToTensor(),
torchvision.transforms.Normalize(
(0.5,), (0.5,))
])),
batch_size=16, shuffle=False)
print(loader.dataset.data.shape)
test_ds, valid_ds = torch.utils.data.random_split(loader.dataset, (50000, 10000))
print(test_ds, valid_ds)
print(test_ds.indices, valid_ds.indices)
print(test_ds.indices.shape, valid_ds.indices.shape)
Мы получаем:
torch.Size([60000, 28, 28])
<torch.utils.data.dataset.Subset object at 0x0000020FD1880B00> <torch.utils.data.dataset.Subset object at 0x0000020FD1880C50>
tensor([ 1520, 4155, 45472, ..., 37969, 45782, 34080]) tensor([ 9133, 51600, 22067, ..., 3950, 37306, 31400])
torch.Size([50000]) torch.Size([10000])
Наши test_ds.indices
и valid_ds.indices
будут случайными из диапазона (0, 600000)
. Но если бы я хотел получить последовательность индексов из (0, 49999)
и из (50000, 59999)
я не могу сделать это, к сожалению, пока, кроме этого.
Удобно, если вы запускаете тест MNIST, где он предопределен, каким должен быть тест, а каким должен быть набор данных проверки.