hive 、mysql麻削、sparksql 比較

主要是通過實驗比較三者的速度蒸痹。
數據生成Python代碼

import csv
import random
import pymysql

if __name__ == "__main__":
    def getOneTraj():
        vme_id = 'S90110000' + str(random.randint(2, 9))
        gps_time = '2015-08-' + str(random.randint(10, 30)) + ' 09:29:11'
        work_state = str(random.randint(0, 1))
        ultrasonic_station = str(random.randint(0, 1))
        limit_switch_state = str(random.randint(0, 1))
        work_deep = str(random.randint(0, 1000))
        longtitude = str(random.uniform(60, 90))
        latitude = str(random.uniform(30, 60))
        elevation = str(random.uniform(0, 1160))
        speed = str(random.uniform(0, 60))
        course_direction = str(random.randint(0, 599))
        str1 = vme_id + '\t' + gps_time + '\t' + work_state + '\t' + ultrasonic_station + '\t' + limit_switch_state + '\t' + work_deep + '\t' + longtitude + '\t' + latitude + '\t' + elevation + '\t' + speed + '\t' + course_direction + '\n'
        return str1


    count = 10
    for i  in [4000,4000,4000,4000,4000,4000,4000,4000,4000,4000]:
        fileName = 'test'+str(count)+'.csv'
        count = count + 1
        f = open(fileName, 'w')
        print(i)
        for k in range(0,i):
            str1=''
            for j in range(0,10000):
                str1 = str1+ getOneTraj()
            f.write(str1)
        f.close()

性能評測sql語句

select count(*)  from trajectory;
select  count(*)  from trajectory  group by vme_id  ;

1、mysql查尋速度的測試

# 建表
CREATE DATABASE dbtac;
USE dbtac;

CREATE TABLE trajectory  (vme_id varchar(100),gps_time varchar(100),work_state  INT,ultrasonic_station  INT,limit_switch_state  INT,work_deep INT,longtitude DOUBLE,latitude DOUBLE,elevation INT,speed INT, course_direction INT);

#測試插入數據
insert into trajectory values('sdd','21',1,1,1,1,1,1,1,1,1);

mysql可以直接導入csv呛哟,但是對于Ubuntu系統(tǒng)有很多權限問題叠荠,試了好幾次不成功,所以就用一下方法扫责。
使用Python編程榛鼎,通過pymysql 往mysql添加數據

import pymysql
import random
import datetime   
print('連接到mysql服務器...')
conn = pymysql.connect("localhost","root","123","dbtac")
print('連接上了!')
cursor = conn.cursor()
values=[]  
for i in range(400):  #往數據庫寫400次,也就是加4億條數據
    values=[] 
    now=datetime.datetime.now()
    for j in range(1000000):#每100w條插入數據庫一次公给,簡單測試效果最佳
        vme_id = 'S90110000' + str(random.randint(2, 9))
        gps_time = '2015-08-' + str(random.randint(10, 30)) + ' 09:29:11'
        work_state = (random.randint(0, 1))
        ultrasonic_station = (random.randint(0, 1))
        limit_switch_state = (random.randint(0, 1))
        work_deep = (random.randint(0, 900))
        longtitude = (random.uniform(60, 90))
        latitude = (random.uniform(30, 60))
        elevation = (random.uniform(0, 1160))
        speed = (random.uniform(0, 60))
        course_direction = (random.randint(0, 599))                
        value=(vme_id,gps_time,work_state,ultrasonic_station,limit_switch_state,work_deep,longtitude,latitude,elevation,speed,course_direction)  
        values.append(value)
    end=datetime.datetime.now()
    print('get the number: ')
    print ((end - now))
    now=datetime.datetime.now()
    cursor.executemany("insert into trajectory values(%s,%s,%s, %s, %s, %s, %s,%s,%s, %s, %s)",values)  
    conn.commit()
    end=datetime.datetime.now()
    print('insert:')
    print (( end-now))  
cursor.close()  
conn.close()  
quit()

注:因為往mysql數據庫中添加4億條數據(約40G)很慢借帘,超過12個小時。
解決方法:多運行幾個Python終端淌铐,同時執(zhí)行上面的程序肺然,需要改i的值。

2.spark-sql

#啟動Hadoop集群
start-all.sh  
#啟動spark 集群
start-master.sh
start-slaves.sh

#啟動spark-sql集群
spark-sql --master spark://master:7077  --driver-cores 8  --driver-java-options "-Dspark.driver.port=4050"  --conf spark.sql.warehouse.dir = hdfs://master:9000/user/hive/warehouse   --master yarn


#如果失敗 可以用本地模式啟動spark-sql
spark-sql

參考: 在集群上運行spark

查看Hadoop集群運行情況 網址 http://localhost:50070/
查看spark集群運營情況網址 http://master:8080/

進入spark-sql后運行

CREATE DATABASE dbtac; 
use dbtac;

DROP TABLE IF EXISTS trajectory;
#或者使用下面語句刪除
truncate table trajectory;

CREATE  TABLE dbtac.trajectory(vme_id STRING,gps_time STRING,work_state INT,ultrasonic_station INT,limit_switch_state INT,work_deep INT,longtitude DOUBLE,latitude DOUBLE,elevation INT,speed INT, course_direction INT)ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' STORED AS TEXTFILE ;

#數據存在hdfs上加載數據的方式
load data inpath 'hdfs://Master:9000/dbtac/test/test10.csv'   into table trajectory;

#數據存在本地的加載數據的方式
LOAD DATA LOCAL INPATH '/win/test/test10.csv' INTO TABLE trajectory;

查看性能

select count(*) from trajectory where work_deep>40;
select count(*) from trajectory where work_deep>40 and speed >20;

刪除一定數量的記錄

delete from trajectory limit 100000腿准;

3际起、 hive

上傳文件到hdfs

hdfs dfs -mkdir /dbtac
hdfs dfs -put /usr/local/dbtac/tac  /dbtac
hdfs dfs -ls  /dbtac/tac

hdfs dfs -rm -r  /dbtac  #刪除dbtac文件夾

啟動hive

cd /usr/local/hive
./bin/hive

進入hive命令

CREATE DATABASE dbtac; 
use dbtac;#切換到dbtac數據庫

DROP TABLE IF EXISTS trajectory;
#創(chuàng)建數據庫
 CREATE EXTERNAL TABLE dbtac.trajectory(vme_id STRING,gps_time STRING,work_state INT,ultrasonic_station INT,limit_switch_state INT,work_deep INT,longtitude DOUBLE,latitude DOUBLE,elevation INT,speed INT, course_direction INT)ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' STORED AS TEXTFILE ;

# 從hdfs加載數據
load data inpath 'hdfs://Master:9000/user/hive/warehouse/dbtac.db/trajectory/test.csv'   into table trajectory;

其他

如何將window上的共享目錄加載到Ubuntu,共享window的數據

sudo apt-get install cifs-utils
sudo mkdir  /win
 sudo mount -t cifs  -o username=xiaojing,password=xxx  //192.168.17.122/mydata  /win
最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
  • 序言:七十年代末吐葱,一起剝皮案震驚了整個濱河市街望,隨后出現的幾起案子,更是在濱河造成了極大的恐慌弟跑,老刑警劉巖灾前,帶你破解...
    沈念sama閱讀 210,914評論 6 490
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現場離奇詭異孟辑,居然都是意外死亡哎甲,警方通過查閱死者的電腦和手機蔫敲,發(fā)現死者居然都...
    沈念sama閱讀 89,935評論 2 383
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來炭玫,“玉大人奈嘿,你說我怎么就攤上這事⊥碳樱” “怎么了裙犹?”我有些...
    開封第一講書人閱讀 156,531評論 0 345
  • 文/不壞的土叔 我叫張陵,是天一觀的道長衔憨。 經常有香客問我叶圃,道長,這世上最難降的妖魔是什么践图? 我笑而不...
    開封第一講書人閱讀 56,309評論 1 282
  • 正文 為了忘掉前任盗似,我火速辦了婚禮,結果婚禮上平项,老公的妹妹穿的比我還像新娘赫舒。我一直安慰自己,他們只是感情好闽瓢,可當我...
    茶點故事閱讀 65,381評論 5 384
  • 文/花漫 我一把揭開白布接癌。 她就那樣靜靜地躺著,像睡著了一般扣讼。 火紅的嫁衣襯著肌膚如雪缺猛。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 49,730評論 1 289
  • 那天椭符,我揣著相機與錄音荔燎,去河邊找鬼。 笑死销钝,一個胖子當著我的面吹牛有咨,可吹牛的內容都是我干的。 我是一名探鬼主播蒸健,決...
    沈念sama閱讀 38,882評論 3 404
  • 文/蒼蘭香墨 我猛地睜開眼座享,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了似忧?” 一聲冷哼從身側響起渣叛,我...
    開封第一講書人閱讀 37,643評論 0 266
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎盯捌,沒想到半個月后淳衙,有當地人在樹林里發(fā)現了一具尸體,經...
    沈念sama閱讀 44,095評論 1 303
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 36,448評論 2 325
  • 正文 我和宋清朗相戀三年箫攀,在試婚紗的時候發(fā)現自己被綠了筷狼。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 38,566評論 1 339
  • 序言:一個原本活蹦亂跳的男人離奇死亡匠童,死狀恐怖,靈堂內的尸體忽然破棺而出塑顺,到底是詐尸還是另有隱情汤求,我是刑警寧澤,帶...
    沈念sama閱讀 34,253評論 4 328
  • 正文 年R本政府宣布严拒,位于F島的核電站扬绪,受9級特大地震影響,放射性物質發(fā)生泄漏裤唠。R本人自食惡果不足惜挤牛,卻給世界環(huán)境...
    茶點故事閱讀 39,829評論 3 312
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望种蘸。 院中可真熱鬧墓赴,春花似錦、人聲如沸航瞭。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,715評論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽刊侯。三九已至章办,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間滨彻,已是汗流浹背藕届。 一陣腳步聲響...
    開封第一講書人閱讀 31,945評論 1 264
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留亭饵,地道東北人休偶。 一個月前我還...
    沈念sama閱讀 46,248評論 2 360
  • 正文 我出身青樓,卻偏偏與公主長得像辜羊,于是被迫代替她去往敵國和親椅贱。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 43,440評論 2 348

推薦閱讀更多精彩內容