Spark 出現Initial job has not accepted any resources

提交spark作業時,程序無法正常運行,一直顯示 可能的原因是之前用ctrl +C終止spark程序的時候並沒有能夠讓spark程序終止(正常是可以的,或者通過sparkUI kill掉程序),導致spark程序一直在後臺死循環般的運行,讓後來提交的spark程序一直處於等待狀態中,如下 可以看到有個spark程序一直在運行,佔用了所有的cpu內核,導致後面的程序一直處於等待中, 這個一直運行的s
相關文章
相關標籤/搜索