原創|行業資訊|編輯:龔雪|2014-08-14 11:07:13.000|閱讀 1035 次
概述:數據的操作語言是SQL,因此很多工具的開發目標自然就是能夠在Hadoop上使用SQL。這些工具有些只是在MapReduce之上做了簡單的包裝,有些則是在HDFS之上實現了完整的數據倉庫,而有些則介于這兩者之間。這樣的工具有很多,來自于Shoutlet的軟件開發工程師Matthew Rathbone最近發表了一篇文章,他列舉了一些常用的工具并對各個工具的應用場景和未來進行了分析。
# 界面/圖表報表/文檔/IDE等千款熱門軟控件火熱銷售中 >>
相關鏈接:
數據的操作語言是SQL,因此很多工具的開發目標自然就是能夠在Hadoop上使用SQL。這些工具有些只是在MapReduce之上做了簡單的包裝,有些則是在HDFS之上實現了完整的數據倉庫,而有些則介于這兩者之間。這樣的工具有很多,來自于Shoutlet的軟件開發工程師Matthew Rathbone最近發表了一篇文章,他列舉了一些常用的工具并對各個工具的應用場景和未來進行了分析。
Hive是原始的SQL-on-Hadoop解決方案。它是一個開源的Java項目,能夠將SQL轉換成一系列可以在標準的Hadoop TaskTrackers上運行的MapReduce任務。Hive通過一個metastore(本身就是一個數據庫)存儲表模式、分區和位置以期提供像 MySQL一樣的功能。它支持大部分MySQL語法,同時使用相似的 database/table/view約定組織數據集。Hive提供了以下功能:
Hive是一個幾乎所有的Hadoop機器都安裝了的實用工具。Hive環境很容易建立,不需要很多基礎設施。鑒于它的使用成本很低,我們幾乎沒有理由將其拒之門外。
但是需要注意的是,Hive的查詢性能通常很低,這是因為它會把SQL轉換為運行得較慢的MapReduce任務。
Hortonworks 目前正在推進Apache Tez 的開發以便于將其作為新的Hive后端解決現在因為使用MapReduce而導致的響應時間慢的問題。
Impala是一個針對Hadoop的開源的“交互式”SQL查詢引擎。它由Cloudera構建,后者是目前市場上最大的Hadoop供應商之一。和Hive一樣,Impala也提供了一種可以針對已有的Hadoop數據編寫SQL查詢的方法。與Hive不同的是它并沒有使用MapReduce執行查詢,而是使用了自己的執行守護進程集合,這些進程需要與Hadoop數據節點安裝在一起。Impala提供了以下功能:
Impala的設計目標是作為Apache Hive的一個補充,因此如果你需要比Hive更快的數據訪問那么它可能是一個比較好的選擇,特別是當你部署了一個Cloudera、MapR或者 Amazon Hadoop集群的時候。但是,為了最大限度地發揮Impala的優勢你需要將自己的數據存儲為特定的文件格式(Parquet),這個轉變可能會比較痛苦。另外,你還需要在集群上安裝Impala守護進程,這意味著它會占用一部分TaskTrackers的資源。Impala目前并不支持YARN。
Cloudera 已經開始嘗試將Impala與YARN集成,這讓我們在下一代Hadoop集群上做Impala開發的時候不再那么痛苦。
Presto是一個用Java語言開發的、開源的“交互式”SQL查詢引擎。它由Facebook構建,即Hive最初的創建者。Presto采用的方法類似于Impala,即提供交互式體驗的同時依然使用已有的存儲在Hadoop上的數據集。它也需要安裝在許多“節點”上,類似于Impala。Presto提供了以下功能:
Presto的目標和Cloudera Impala一樣。但是與Impala不同的是它并沒有被一個主要的供應商支持,所以很不幸你在使用Presto的時候無法獲得企業支持。但是有一些知名的、令人尊敬的技術公司已經在產品環境中使用它了,它大概是有社區的支持。與Impala相似的是,它的性能也依賴于特定的數據存儲格式(RCFile)。老實地說,在部署Presto之前你需要仔細考慮自己是否有能力支持并調試Presto,如果你對它的這些方面滿意并且相信Facebook并不會遺棄開源版本的Presto,那么使用它。
Shark是由UC Berkeley大學使用Scala語言開發的一個開源SQL查詢引擎。與Impala和Presto相似的是,它的設計目標是作為Hive的一個補充,同時在它自己的工作節點集合上執行查詢而不是使用MapReduce。與Impala和Presto不同的是Shark構建在已有的 Apache Spark數據處理引擎之上。Spark現在非常流行,它的社區也在發展壯大。可以將Spark看作是一個比MapReduce更快的可選方案。Shark提供了以下功能:
Shark非常有趣,因為它既想支持Hive功能又想極力地改善性能。現在有很多組織正在使用Spark,但是不確定有多少在用Shark。我并不認為它的性能能夠趕上Presto和Impala,但是如果你已經打算使用Spark那么可以嘗試使用一下Shark,特別是Spark正在被越來越多的主要供應商所支持。
Apache Drill是一個針對Hadoop的、開源的“交互式”SQL查詢引擎。Drill現在由MapR推動,盡管他們現在也支持Impala。Apache Drill的目標與Impala和Presto相似——對大數據集進行快速的交互式查詢,同時它也需要安裝工作節點(drillbits)。不同的是 Drill旨在支持多種后端存儲(HDFS、HBase、MongoDB),同時它的一個重點是復雜的嵌套數據集(例如JSON)。不幸的是drill現在僅在Alpha階段,因此應用還不是很廣泛。Drill提供了以下功能:
最好別用。該項目依然在Alpha階段,因此不要在生產環境中使用它。
Hawq是EMC Pivotal 公司的一個非開源產品,作為該公司專有Hadoop版本“Pivotal HD”的一部分提供。Pivotal宣稱Hawq是“世界上最快的Hadoop SQL引擎”,已經發展了10年。然而這種觀點難以得到證實。很難知道Hawq到底提供了哪些特性,但是可以收集到下面這些:
如果你使用由Pivotal公司提供的Hadoop版本那么就使用它,否則不使用。
Big Blue 有它自己的Hadoop版本,稱為Big Insights。BigSQL作為該版本的一部分提供。BigSQL用于使用MapReduce和其他能夠提供低延遲結果的方法(不詳)查詢存儲在HDFS中的數據。從BigSQL的文檔中可以了解到它大概提供以下功能:
如果你是IBM的客戶那么就使用它,否則不使用。
Apache Phoenix是一個用于Apache HBase的開源SQL引擎。它的目標是通過一個嵌入的JDBC驅動對存儲在HBase中的數據提供低延遲查詢。與之前介紹的其他引擎不同的是,Phoenix提供了HBase數據的讀、寫操作。它的功能有:
如果你使用HBase那么就使用它。盡管Hive能夠從HBase中讀取數據,但是Phoenix還提供了寫入功能。不清楚它是否適合產品環境和事務,但是作為一個分析工具它的功能無疑足夠強大。
Apache Tajo項目的目的是在HDFS之上構建一個先進的數據倉庫系統。Tajo將自己標榜為一個“大數據倉庫”,但是它好像和之前介紹的那些低延遲查詢引擎類似。雖然它支持外部表和Hive數據集(通過HCatalog),但是它的重點是數據管理,提供低延遲的數據訪問,以及為更傳統的ETL提供工具。它也需要在數據節點上部署Tajo特定的工作進程。Tajo的功能包括:
雖然Tajo的一些基準測試結果非常漂亮,但是基準測試可能會有一些偏見,不能對其完全信任 。Tajo社區現在也不夠繁榮,在北美也沒有主要的Hadoop供應商支持它。但是如果你在南韓,Gruter 是主要的項目贊助者,如果你使用他們的平臺那么可能會得到他們良好的支持,否則的話最好還是使用Impala或者Presto這些引擎。
來源:InfoQ
本站文章除注明轉載外,均為本站原創或翻譯。歡迎任何形式的轉載,但請務必注明出處、不得修改原文相關鏈接,如果存在內容上的異議請郵件反饋至chenjj@fc6vip.cn
文章轉載自:慧都控件網