本篇內容主要講解“spark怎么讀取hbase數據并轉化為dataFrame”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“spark怎么讀取hbase數據并轉化為dataFrame”吧!
最近兩天研究Spark直接讀取hbase數據,并將其轉化為dataframe。之所以這么做,
1、公司的數據主要存儲在hbase之中
2、使用dataframe,更容易實現計算。
盡管hbase的官方已經提供了hbase-spark 接口,但是并未對外發布,而且目前的項目又有這方面的需求,且網上關于這么方面的參考比較少,
故貼出來,代碼如下,僅供參考
import org.apache.hadoop.hbase.client._import org.apache.hadoop.hbase.io.ImmutableBytesWritableimport org.apache.hadoop.hbase.mapreduce.TableInputFormatimport org.apache.hadoop.hbase.{TableName, HBaseConfiguration}import org.apache.hadoop.hbase.util.Bytesimport org.apache.spark.sql.SQLContextimport org.apache.spark.{SparkContext, SparkConf}/** * Created by seagle on 6/28/16. */object HBaseSpark { def main(args:Array[String]): Unit ={// 本地模式運行,便于測試 val sparkConf = new SparkConf().setMaster("local").setAppName("HBaseTest")// 創建hbase configuration val hBaseConf = HBaseConfiguration.create() hBaseConf.set(TableInputFormat.INPUT_TABLE,"bmp_ali_customer")// 創建 spark context val sc = new SparkContext(sparkConf)val sqlContext = new SQLContext(sc)import sqlContext.implicits._// 從數據源獲取數據 val hbaseRDD = sc.newAPIHadoopRDD(hBaseConf,classOf[TableInputFormat],classOf[ImmutableBytesWritable],classOf[Result])// 將數據映射為表 也就是將 RDD轉化為 dataframe schema val shop = hbaseRDD.map(r=>( Bytes.toString(r._2.getValue(Bytes.toBytes("info"),Bytes.toBytes("customer_id"))), Bytes.toString(r._2.getValue(Bytes.toBytes("info"),Bytes.toBytes("create_id"))) )).toDF("customer_id","create_id") shop.registerTempTable("shop")// 測試 val df2 = sqlContext.sql("SELECT customer_id FROM shop") df2.foreach(println) }
代碼能夠運行的前提是
1、 引用了 spark-sql jar
2、配置了Hbase-site.xml ,并將其放在工程的根目錄下
到此,相信大家對“spark怎么讀取hbase數據并轉化為dataFrame”有了更深的了解,不妨來實際操作一番吧!這里是億速云網站,更多相關內容可以進入相關頻道進行查詢,關注我們,繼續學習!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。