Уникальные значения столбца факторов, содержащие NAs => "Hash table is full" error
У меня есть таблица данных с 57-м записями и 9 столбцами, одна из которых вызывает проблему, когда я пытаюсь запустить некоторую итоговую статистику. Столбец оскорбления является фактором с 3699 уровнями, и я получаю сообщение об ошибке из следующей строки кода:
> unique(da$UPC)
Error in unique.default(da$UPC): hash table is full
Теперь, очевидно, я бы просто использовал: levels(da$UPC)
, но я пытаюсь подсчитать уникальные значения, которые существуют в каждой группе, как часть нескольких j параметров /caluclations в инструкции группы данных.
Интересно, что unique(da$UPC[1:1000000])
работает как ожидалось, однако unique(da$UPC[1:10000000])
этого не делает. Учитывая, что моя таблица имеет 57-миллиметровые записи, это проблема.
Я попытался преобразовать коэффициент в символ и не работает без проблем:
da$UPC = as.character(levels(da$UPC))[da$UPC]
unique(da$UPC)
Выполнение этого показывает мне дополнительный "уровень", который равен NA
. Так как мои данные имеют некоторые НС в столбце факторов, уникальная функция не работает. Мне интересно, это то, что разработчики знают о чем-то, что нужно исправить? Я нашел следующую статью о r-devel, которая может быть актуальной, но я не уверен, и она не упоминает data.table
.
Связанная статья: уникальная (1: 3, nmax = 1) зависает R!
sessionInfo:
R version 3.0.1 (2013-05-16)
Platform: x86_64-unknown-linux-gnu (64-bit)
locale:
[1] LC_CTYPE=C LC_NUMERIC=C
[3] LC_TIME=en_US.iso88591 LC_COLLATE=C
[5] LC_MONETARY=en_US.iso88591 LC_MESSAGES=en_US.iso88591
[7] LC_PAPER=C LC_NAME=C
[9] LC_ADDRESS=C LC_TELEPHONE=C
[11] LC_MEASUREMENT=en_US.iso88591 LC_IDENTIFICATION=C
attached base packages:
[1] stats graphics grDevices utils datasets methods base
other attached packages:
[1] plyr_1.8 data.table_1.8.8
Ответы
Ответ 1
этот фрагмент кода должен помещать ваши отсутствующие наблюдения в обычный уровень, с которым будет работать более удобно.
# Need additional level to place missing into first
levels(da$UPC) <- c(levels(da$UPC), '(NA)')
da$UPC[is.na(da$UPC)] <- '(NA)'
Похоже, вы в конечном счете пытаетесь сбросить нечастые уровни, чтобы помочь в каком-то анализе. Я написал функцию factorize(), которая, я считаю, может вам помочь. Он ведёт нечастые уровни в категорию "Другие".
Здесь ссылка, пожалуйста, дайте мне знать, если это поможет.
[факторизуются()] [1]
https://github.com/greenpat/R-Convenience/blob/master/factorize.R
(воспроизведено ниже)
# This function takes a vector x and returns a factor representation of the same vector.
# The key advantage of factorize is that you can assign levels for infrequent categories,
# as well as empty and NA values. This makes it much easier to perform
# multidimensional/thematic analysis on your largest population subsets.
factorize <- function(
x, # vector to be transformed
min_freq = .01, # all levels < this % of records will be bucketed
min_n = 1, # all levels < this # of records will be bucketed
NA_level = '(missing)', # level created for NA values
blank_level = '(blank)', # level created for "" values
infrequent_level = 'Other', # level created for bucketing rare values
infrequent_can_include_blank_and_NA = F, # default NA and blank are not bucketed
order = T, # default to ordered
reverse_order = F # default to increasing order
) {
if (class(x) != 'factor'){
x <- as.factor(x)
}
# suspect this is faster than reassigning new factor object
levels(x) <- c(levels(x), NA_level, infrequent_level, blank_level)
# Swap out the NA and blank categories
x[is.na(x)] <- NA_level
x[x == ''] <- blank_level
# Going to use this table to reorder
f_tb <- table(x, useNA = 'always')
# Which levels will be bucketed?
infreq_set <- c(
names(f_tb[f_tb < min_n]),
names(f_tb[(f_tb/sum(f_tb)) < min_freq])
)
# If NA and/or blank were infrequent levels above, this prevents bucketing
if(!infrequent_can_include_blank_and_NA){
infreq_set <- infreq_set[!infreq_set %in% c(NA_level, blank_level)]
}
# Relabel all the infrequent choices
x[x %in% infreq_set] <- infrequent_level
# Return the reordered factor
reorder(droplevels(x), rep(1-(2*reverse_order),length(x)), FUN = sum, order = order)
}
Ответ 2
Не могли бы вы использовать dplyr
и получить другой результат? Например, я установил некоторые (маленькие) поддельные данные, а затем определит различные уровни alpha
. Я не знаю, насколько это хорошо.
test <- data.frame(alpha=sample(c('a', 'b', 'c'), 100000, replace=TRUE),
num=runif(100000))
uniqueAlpha <- distinct(select(test, alpha))
Ответ 3
Возможно, я пропущу точку, но если это объект data.table, вы можете использовать это, чтобы суммировать подсчеты:
da[,.N, by=UPC]
Если это работает, уникальными значениями будут:
unique <- da[,.N, by=UPC]$UPC
length(unique)
Вы также можете группировать несколько столбцов:
da[,.N,by=.(A,B,C,..)]
Ответ 4
В качестве альтернативы вы также можете использовать дублируемую функцию.
my_data <- data.frame(a=c(1,1,2,2,3,3),
b=c("a","a","a","b","b","c"))
New_data <- my_data[!duplicated(my_data$a),]
Дублированная функция возвращает логический вектор на основе дублированных значений, используя отрицание, мы получили желаемые результаты.
Ответ 5
Не уверен, что это решит проблему, но вы можете проверить пакет Hadley Wickham forcats
:
library(forcats)
fct_count(da$UPC)