Ответ 1
Я нашел этот комментарий одним из создателей hbase-spark
, который, кажется, предлагает использовать PySpark для запроса HBase используя Spark SQL.
И действительно, шаблон, описанный здесь, можно применить для запроса HBase с помощью Spark SQL с помощью PySpark, как показано в следующем примере:
from pyspark import SparkContext
from pyspark.sql import SQLContext
sc = SparkContext()
sqlc = SQLContext(sc)
data_source_format = 'org.apache.hadoop.hbase.spark'
df = sc.parallelize([('a', '1.0'), ('b', '2.0')]).toDF(schema=['col0', 'col1'])
# ''.join(string.split()) in order to write a multi-line JSON string here.
catalog = ''.join("""{
"table":{"namespace":"default", "name":"testtable"},
"rowkey":"key",
"columns":{
"col0":{"cf":"rowkey", "col":"key", "type":"string"},
"col1":{"cf":"cf", "col":"col1", "type":"string"}
}
}""".split())
# Writing
df.write\
.options(catalog=catalog)\ # alternatively: .option('catalog', catalog)
.format(data_source_format)\
.save()
# Reading
df = sqlc.read\
.options(catalog=catalog)\
.format(data_source_format)\
.load()
Я пробовал hbase-spark-1.2.0-cdh5.7.0.jar
(как было распространено Cloudera) для этого, но столкнулся с проблемой (org.apache.hadoop.hbase.spark.DefaultSource does not allow create table as select
при записи, java.util.NoSuchElementException: None.get
при чтении). Как оказалось, настоящая версия CDH не включает изменения в hbase-spark
, которые позволяют интегрировать Spark SQL-HBase.
Что для меня работает, это пакет shc
Spark, найденный здесь. Единственное изменение, которое я должен был сделать для вышеупомянутого script, это изменить:
data_source_format = 'org.apache.spark.sql.execution.datasources.hbase'
Здесь, как я представляю выше script на моем кластере CDH, следуя примеру из shc
README:
spark-submit --packages com.hortonworks:shc:1.0.0-1.6-s_2.10 --repositories http://repo.hortonworks.com/content/groups/public/ --files /opt/cloudera/parcels/CDH/lib/hbase/conf/hbase-site.xml example.py
Большая часть работы над shc
, похоже, уже слита в модуль hbase-spark
HBase, для выпуска в версии 2.0. При этом Spark SQL-запрос HBase возможен с использованием вышеупомянутого шаблона (подробнее см. https://hbase.apache.org/book.html#_sparksql_dataframes). Мой пример выше показывает, как он выглядит для пользователей PySpark.
Наконец, оговорка: мои приведенные выше данные примера имеют только строки. Преобразование данных Python не поддерживается shc
, поэтому у меня были проблемы с целыми числами и поплавками, которые не отображаются в HBase или со странными значениями.