當前位置:編程學習大全網 - 源碼下載 - Hadoop軟件處理框架

Hadoop軟件處理框架

壹、Hadoop

Hadoop是壹個能夠對大量數據進行分布式處理的軟件框架。但是Hadoop是以壹種可靠、高效、可伸縮的方式進行處理的。Hadoop是可靠的,因為它假設計算元素和存儲會失敗,因此它維護多個工作數據副本,確保能夠針對失敗的節點重新分布處理。Hadoop是高效的,因為它以並行的方式工作,通過並行處理加快處理速度。Hadoop還是可伸縮的,能夠處理PB級數據。此外,Hadoop依賴於社區服務器,因此它的成本比較低,任何人都可以使用。

Hadoop是壹個能夠讓用戶輕松架構和使用的分布式計算平臺。用戶可以輕松地在Hadoop上開發和運行處理海量數據的應用程序。它主要有以下幾個優點:

⒈高可靠性。Hadoop按位存儲和處理數據的能力值得人們信賴。

⒉高擴展性。Hadoop是在可用的計算機集簇間分配數據並完成計算任務的,這些集簇可以方便地擴展到數以千計的節點中。

⒊高效性。Hadoop能夠在節點之間動態地移動數據,並保證各個節點的動態平衡,因此處理速度非常快。

⒋高容錯性。Hadoop能夠自動保存數據的多個副本,並且能夠自動將失敗的任務重新分配。

Hadoop帶有用Java語言編寫的框架,因此運行在Linux生產平臺上是非常理想的。

Hadoop上的應用程序也可以使用其他語言編寫,比如C。

二、HPCC

HPCC,HighPerformanceComputingand(高性能計算與通信)的縮寫。

1993年,由美國科學、工程、技術聯邦協調理事會向國會提交了“重大挑戰項目:高性能計算與通信”的報告,也就是被稱為HPCC計劃的報告,即美國總統科學戰略項目,其目的是通過加強研究與開發解決壹批重要的科學與技術挑戰問題。HPCC是美國實施信息高速公路而上實施的計劃,該計劃的實施將耗資百億美元,其主要目標要達到:開發可擴展的計算系統及相關軟件,以支持太位級網絡傳輸性能,開發千兆比特網絡技術,擴展研究和教育機構及網絡連接能力。

該項目主要由五部分組成:

1、高性能計算機系統(HPCS),內容包括今後幾代計算機系統的研究、系統設計工具、先進的典型系統及原有系統的評價等;

2、先進軟件技術與算法(ASTA),內容有巨大挑戰問題的軟件支撐、新算法設計、軟件分支與工具、計算計算及高性能計算研究中心等;

3、國家科研與教育網格(NREN),內容有中接站及10億位級傳輸的研究與開發;

4、基本研究與人類資源(BRHR),內容有基礎研究、培訓、教育及課程教材,被設計通過獎勵調查者-開始的,長期的調查在可升級的高性能計算中來增加創新意識流,通過提高教育和高性能的計算訓練和通信來加大熟練的和訓練有素的人員的聯營,和來提供必需的基礎架構來支持這些調查和研究活動;

5、信息基礎結構技術和應用(IITA),目的在於保證美國在先進信息技術開發方面的領先地位。

三、Storm

Storm是自由的開源軟件,壹個分布式的、容錯的實時計算系統。Storm可以非常可靠的處理龐大的數據流,用於處理Hadoop的批量數據。Storm很簡單,支持許多種編程語言,使用起來非常有趣。Storm由Twitter開源而來,其它知名的應用企業包括Groupon、淘寶、支付寶、阿裏巴巴、樂元素、Admaster等等。

Storm有許多應用領域:實時分析、在線機器學習、不停頓的計算、分布式RPC(遠過程調用協議,壹種通過網絡從遠程計算機程序上請求服務)、ETL(Extraction--Loading的縮寫,即數據抽取、轉換和加載)等等。Storm的處理速度驚人:經測試,每個節點每秒鐘可以處理100萬個數據元組。Storm是可擴展、容錯,很容易設置和操作。

四、ApacheDrill

為了幫助企業用戶尋找更為有效、加快Hadoop數據查詢的方法,Apache軟件基金會近日發起了壹項名為“Drill”的開源項目。ApacheDrill實現了Google‘sDremel.

據Hadoop廠商MapR公司產品經理TomerShiran介紹,“Drill”已經作為Apache孵化器項目來運作,將面向全球軟件工程師持續推廣。

該項目將會創建出開源版本的谷歌DremelHadoop工具(谷歌使用該工具來為Hadoop數據分析工具的互聯網應用提速)。而“Drill”將有助於Hadoop用戶實現更快查詢海量數據集的目的。

“Drill”項目其實也是從谷歌的Dremel項目中獲得靈感:該項目幫助谷歌實現海量數據集的分析處理,包括分析抓取Web文檔、跟蹤安裝在AndroidMarket上的應用程序數據、分析垃圾郵件、分析谷歌分布式構建系統上的測試結果等等。

通過開發“Drill”Apache開源項目,組織機構將有望建立Drill所屬的API接口和靈活強大的體系架構,從而幫助支持廣泛的數據源、數據格式和查詢語言。

五、RapidMiner

RapidMiner是世界領先的數據挖掘解決方案,在壹個非常大的程度上有著先進技術。它數據挖掘任務涉及範圍廣泛,包括各種數據藝術,能簡化數據挖掘過程的設計和評價。

功能和特點:

免費提供數據挖掘技術和庫

100%用Java代碼(可運行在操作系統)

數據挖掘過程簡單,強大和直觀

內部XML保證了標準化的格式來表示交換數據挖掘過程

可以用簡單腳本語言自動進行大規模進程

多層次的數據視圖,確保有效和透明的數據

圖形用戶界面的互動原型

命令行(批處理模式)自動大規模應用

JavaAPI(應用編程接口)

簡單的插件和推廣機制

強大的可視化引擎,許多尖端的高維數據的可視化建模

400多個數據挖掘運營商支持

耶魯大學已成功地應用在許多不同的應用領域,包括文本挖掘,多媒體挖掘,功能設計,數據流挖掘,集成開發的方法和分布式數據挖掘。

六、PentahoBI

PentahoBI平臺不同於傳統的BI產品,它是壹個以流程為中心的,面向解決方案(Solution)的框架。其目的在於將壹系列企業級BI產品、開源軟件、API等等組件集成起來,方便商務智能應用的開發。它的出現,使得壹系列的面向商務智能的獨立產品如Jfree、Quartz等等,能夠集成在壹起,構成壹項項復雜的、完整的商務智能解決方案。

PentahoBI平臺,PentahoOpenBI套件的核心架構和基礎,是以流程為中心的,因為其中樞控制器是壹個工作流引擎。工作流引擎使用流程定義來定義在BI平臺上執行的商業智能流程。流程可以很容易的被定制,也可以添加新的流程。BI平臺包含組件和報表,用以分析這些流程的性能。目前,Pentaho的主要組成元素包括報表生成、分析、數據挖掘和工作流管理等等。這些組件通過J2EE、WebService、SOAP、HTTP、Java、JavaScript、Portals等技術集成到Pentaho平臺中來。Pentaho的發行,主要以PentahoSDK的形式進行。

PentahoSDK***包含五個部分:Pentaho平臺、Pentaho示例數據庫、可獨立運行的Pentaho平臺、Pentaho解決方案示例和壹個預先配制好的Pentaho網絡服務器。其中Pentaho平臺是Pentaho平臺最主要的部分,囊括了Pentaho平臺源代碼的主體;Pentaho數據庫為Pentaho平臺的正常運行提供的數據服務,包括配置信息、Solution相關的信息等等,對於Pentaho平臺來說它不是必須的,通過配置是可以用其它數據庫服務取代的;可獨立運行的Pentaho平臺是Pentaho平臺的獨立運行模式的示例,它演示了如何使Pentaho平臺在沒有應用服務器支持的情況下獨立運行;Pentaho解決方案示例是壹個Eclipse工程,用來演示如何為Pentaho平臺開發相關的商業智能解決方案。

PentahoBI平臺構建於服務器,引擎和組件的基礎之上。這些提供了系統的J2EE服務器,安全,portal,工作流,規則引擎,圖表,協作,內容管理,數據集成,分析和建模功能。這些組件的大部分是基於標準的,可使用其他產品替換之。

七、Splunk

Splunk的功能組件主要有Forwarder、SerchHead、Indexer三種,然後支持了查詢搜索、儀表盤和報表(效果真不是吹的,很精致呀),另外還支持SaaS服務模式。其中,Splunk支持的數據源也是多種類型的,基本上還是可以滿足客戶的需求。

目前支持hadoop1.x(MRv1)、Hadoop2.x(MRv2)、Hadoop2.x(Yarn)三個版本的Hadoop集群的日誌數據源收集,在日誌管理運維方面還是處於壹個國際領先的地位,目前國內有部分的數據驅動型公司也正在采用Splunk的日誌管理運維服務。

八、EverString

everstring主要是通過大數據的預測分析建模為企業提供業務和客戶推薦的SaaS服務,獲取和積累了兩個數據信息資源庫,壹個行業外部的資源庫(公有SaaS收費形式),壹個行業自己內部的資源庫(私有),然後再通過機器學習和人工智能的方法對數據進行相應行業或是領域的建模,最後得到壹個比較不錯的結果,優化於人工可以得到的結果,而且Everstring也成為了初創大數據公司裏面估值很高的公司。

  • 上一篇:怎麽利用易語言編寫軟件呢
  • 下一篇:linux的ubuntu14.04下的libpcap怎麽測試
  • copyright 2024編程學習大全網