xts 객체를 만들고, csv 파일로 저장하고, Google 클라우드 플랫폼에 업로드하고, Python 사전을 만들고, 사전을 다운로드하고, 결과 (REST API를 통해 한 번에 여러 원본 파일)를 R로 다시 가져옵니다. Rcurl.
원래 xts 개체를 다시 만들고 싶지만 최종 결과를 제대로 구문 분석 할 수 없습니다.
데이터 흐름은 다음과 같습니다.
csv 파일 중 하나는 다음과 같습니다 (모두 동일한 구조를 가짐).
R의 결과는 다음과 같습니다.
library(RCurl)
all_files <- getURL("https://....")
all_parsed <- jsonlite::fromJSON(all_files)
cat (all_parsed $ 2020-09-24.csv
)를 사용하여 결과를 인쇄하면 xts에 대한 올바른 구조가 있습니다.
하지만 모든 \ n \ "등으로 인해 데이터를 실제로 사용할 수 없습니다.
strsplit (...)으로 시도해 볼 수 있지만 많은 작업이 필요합니다.
결과를 구문 분석하는 더 좋은 방법이 있습니까?
더 나은 설명 / 재현 가능한 코드를 제공 할 수 없어 죄송합니다. Rcurl의 URL을 우편으로 보내드릴 수 있습니다.
감사합니다!
이렇게?
library(stringr)
# Example string
ex_str <- "\"Index\",\"E2202\"\n\"2020-09-04\",NA\n\"2020-12-02\",2.7"
# First, split on the \n which represents a new line
ex_str <- str_split(ex_str, "\n")[[1]]
# Then, drop quotation marks
str_replace_all(ex_str, "\"", "")
[1] "Index,E2202" "2020-09-04,NA" "2020-12-02,2.7"
이 기사는 인터넷에서 수집됩니다. 재 인쇄 할 때 출처를 알려주십시오.
침해가 발생한 경우 연락 주시기 바랍니다[email protected] 삭제
몇 마디 만하겠습니다