共計 459 個字符,預計需要花費 2 分鐘才能閱讀完成。
本篇內容介紹了“如何啟動 Spark 集群”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓丸趣 TV 小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠學有所成!
在 SparkWorker1 和 SparkWorker2 上使用 jps 會看到如下進程信息:
啟動 Spark 集群
在 Hadoop 集群成功啟動的基礎上,啟動 Spark 集群需要使用 Spark 的 sbin 目錄下“start-all.sh”:
此時的 SparkWorker1 和 SparkWorker2 會出現新的進程“Worker”:
此時,我們可以進入 Spark 集群的 Web 頁面,訪問“http://SparkMaster:8080”: 如下所示:
從頁面上我們可以看到我們有兩個 Worker 節點及這兩個節點的信息。
此時,我們進入 Spark 的 bin 目錄,使用“spark-shell”控制臺:
“如何啟動 Spark 集群”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識可以關注丸趣 TV 網站,丸趣 TV 小編將為大家輸出更多高質量的實用文章!
正文完