hbase使用lsm數(shù)厚柳,所以寫性能好氧枣,
但是列存儲寫性能比行存儲差?
hbase一行只有一個時間戳别垮,最多維持三個版本便监,update和delete等都是用row全參數(shù),而不是某一行的某一列新增碳想,而且update是把之前的row后面新加一個row烧董。所以確定一行的增加某列操作,需要先read后手工內(nèi)存加一列后再update胧奔?逊移?
spark可以直接savetoobject,savetofile,savetohadoop等保存,因此可以直接存hdfs龙填,不需要hbase的特殊處理股囊,然后hdfs直接用mapreduce進(jìn)行處理之后爹脾,將串聯(lián)好的一串再看怎么保存酷愧,例如存數(shù)據(jù)庫等控轿。