Spark 1.6 버전을 사용하고 있으며 Spark-shell에서 작업을 실행하는 동안 작업이 데이터를 읽고 있지만 아래 표와 같이 작업을 완료하기 위해 다시 쓰지 않는 것을 관찰했습니다.
Address TaskTime TotalTask FailedTask succeededtask Shuffle/read Shuffle/write
1 0 0 0 0 188KB/707 0.0B/670
Spark 프로그램은 5 개의 실행기 5GB 크기와 3 코어를 사용하고 있습니다.
클러스터 설정에서 파티션에 대한 작업 수를 늘려이 문제를 해결했습니다.
이 기사는 인터넷에서 수집됩니다. 재 인쇄 할 때 출처를 알려주십시오.
침해가 발생한 경우 연락 주시기 바랍니다[email protected] 삭제
몇 마디 만하겠습니다