-
Notifications
You must be signed in to change notification settings - Fork 62
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Add script to run spark cluster #143
Conversation
@harryteng9527 麻煩幫忙測試一下 |
@harryteng9527 感謝測試
可否貼上logs給我看? 另外可否請你下載新版後再試試看?因為我有解決跟連線有關的bug |
剛剛看了docker logs worker_containerID後,發現自動關閉是worker與master沒有通訊到導致 下面附上log:
|
請問需要修改ip來測試嗎?? |
沒錯,這可能就是主因了 |
測試過程運行一個Master與Worker node,並Submit一個SparkPi的範例,能在Web UI中看到Complete。 運行指令:
Master Web UIWorker Web UI根據上面能夠submit job並可以在Web UI中檢視執行結果,我認為此腳本可以正常運作。 建立Worker之問題詢問目前只能支援建立一個master跟一個worker嗎? |
這是刻意的限制,也符合spark的規範。因為spark是一種資源管理的服務,如果同一個節點部署多個會導致混亂,例如已經被佔用的資源被重複配置,這會有後續蠻多效能問題 因此要建立多個workers必須在不同節點上 |
這是為下一個題目做準備,這個腳本可以幫我們啟動spark cluster