tentando ler um grande conjunto de dados em R, o console exibiu os seguintes erros:
data<-read.csv ("UserDailyStats.csv", sep = ",", header = T, na.strings = "-", stringsAsFactors = FALSE) > data = data [complete.cases (data),] > dataset<-data.frame (user_id = as.character (data [, 1]), event_date = as.character (dados [, 2]), day_of_week = as.factor (data [, 3]), different_events_a_count = as.numeric (as.character (data [, 4])), total_events_a_count = as.numeric (as.character (data [, 5])), events_a_duration = as.numeric (as.character (data [, 6])), different_events_b_count = as.numeric (as.character (data [, 7])), total_events_b = as.numeric (as .character (data [, 8])), events_b_duration = as.numeric (as.character (data [, 9]))) Erro: não é possível alocar vetor de tamanho 94,3 Mb; Além disso: Mensagens de aviso: 1: Em data.frame ( user_msisdn = as.character (data [, 1]), calls_date = as.character (data [,: NAs introduzidos por coercion2: In data.frame (user_msisdn = as.character (data [, 1]), calls_date = as. personagem (da ta [,: NAs introduzidos por coerção3: In class (value) <- "data.frame": Alocação total alcançada de 3583Mb: consulte a ajuda (memory.size) 4: In class (value) <- "data.frame": Atingiu a alocação total de 3583 MB: veja a ajuda (memory.size)
Alguém sabe ler grandes conjuntos de dados? O tamanho de UserDailyStats.csv é de aproximadamente 2 GB.