當前位置:編程學習大全網 - 網站源碼 - 學習spark需要學習hadoop嗎

學習spark需要學習hadoop嗎

當然,起碼hadoop框架內的mapreduce(分布式計算模塊)和HDFS(分布式文件存儲系統)妳要學習,MR能夠幫助妳深入理解分布式的計算思維,HDFS則是大數據領域內最為常用,最為常見的文件存儲系統,Spark也同樣要依托於HDFS進行很多的計算,另外還有Hadoop2.X裏面的Yarn(壹種可以用於多種框架的資源調度系統),Spark企業級應用都是基於Spark on Yarn模式的

  • 上一篇:請開發過論壇的朋友進!我想問壹下論壇中等級的劃分是怎麽設計的?有源碼更好!追加分再議!
  • 下一篇:asp.net(C#)中的Listview如何在刪除數據前獲得該行數據的非主鍵的值
  • copyright 2024編程學習大全網