Sqoop數(shù)據(jù)導(dǎo)入/導(dǎo)出

1. 從HDFS導(dǎo)出到RDBMS數(shù)據(jù)庫

1.1 準(zhǔn)備工作

寫一個(gè)文件

sqoop_export.txt

1201,laojiao, manager,50000, TP
1202,fantj,preader,50000,TP
1203,jiao,dev,30000,AC
1204,laowang,dev,30000,AC
1205,laodu,admin,20000,TP
1206,laop,grp des,20000,GR

上傳到hdfs:
hadoop fs -put sqoop_export.txt /sqoop/export/

創(chuàng)建mysql數(shù)據(jù)庫并增加授權(quán):

create database sqoopdb;
grant all privileges on sqoopdb.* to 'sqoop'@'%' identified by 'sqoop';
grant all privileges on sqoopdb.* to 'sqoop'@'localhost' identified by 'sqoop';
grant all privileges on sqoopdb.* to 'sqoop'@'s166' identified by 'sqoop';
flush privileges;

創(chuàng)建表:

use sqoopdb;
CREATE TABLE employee ( 
   id INT NOT NULL PRIMARY KEY, 
   name VARCHAR(20), 
   deg VARCHAR(20),
   salary INT,
   dept VARCHAR(10));
1.2 執(zhí)行導(dǎo)出命令
bin/sqoop export \
--connect jdbc:mysql://s166:3306/sqoopdb \
--username sqoop \
--password sqoop \
--table employee \
--export-dir /sqoop/export/emp/ \
--input-fields-terminated-by ','

我執(zhí)行的時(shí)候發(fā)現(xiàn)它總在報(bào)這個(gè)錯(cuò):

 ERROR tool.ExportTool: Encountered IOException running export job: java.io.FileNotFoundException: File does not exist: hdfs://s166/home/fantj/sqoop/lib/avro-mapred-1.5.3.jar

然后找了很多解決方案:

  1. 替換mysql-java的jar包,換個(gè)高版本的畴蹭。
  2. 修改hadoop的mapred-site.xml文件(先更名mv mapred-site.xml.template mapred-site.xml
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

解決后再執(zhí)行:

    Map-Reduce Framework
        Map input records=6
        Map output records=6
        Input split bytes=107
        Spilled Records=0
        Failed Shuffles=0
        Merged Map outputs=0
        GC time elapsed (ms)=95
        CPU time spent (ms)=1210
        Physical memory (bytes) snapshot=97288192
        Virtual memory (bytes) snapshot=2075623424
        Total committed heap usage (bytes)=17006592
    File Input Format Counters 
        Bytes Read=0
    File Output Format Counters 
        Bytes Written=0
 22:34:37 INFO mapreduce.ExportJobBase: Transferred 274 bytes in 47.346 seconds (5.7872 bytes/sec)
 22:34:37 INFO mapreduce.ExportJobBase: Exported 6 records.

說明處理成功喧兄!

1.3 驗(yàn)證mysql表
mysql> select * from employee;
+------+---------+----------+--------+------+
| id   | name    | deg      | salary | dept |
+------+---------+----------+--------+------+
| 1201 | laojiao |  manager |  50000 | TP   |
| 1202 | fantj   | preader  |  50000 | TP   |
| 1203 | jiao    | dev      |  30000 | AC   |
| 1204 | laowang | dev      |  30000 | AC   |
| 1205 | laodu   | admin    |  20000 | TP   |
| 1206 | laop    | grp des  |  20000 | GR   |
+------+---------+----------+--------+------+
6 rows in set (0.07 sec)

2. 導(dǎo)入表表數(shù)據(jù)到HDFS

bin/sqoop import \
--connect jdbc:mysql://s166:3306/sqoopdb \
--username sqoop \
--password sqoop \
--table employee --m 1
22:44:26 INFO mapreduce.Job: The url to track the job: http://s166:8088/proxy/application_1532679575794_0002/

    File System Counters
        FILE: Number of bytes read=0
        FILE: Number of bytes written=123111
        FILE: Number of read operations=0
        FILE: Number of large read operations=0
        FILE: Number of write operations=0
        HDFS: Number of bytes read=87
        HDFS: Number of bytes written=161
        HDFS: Number of read operations=4
        HDFS: Number of large read operations=0
        HDFS: Number of write operations=2
    Job Counters 
        Launched map tasks=1
        Other local map tasks=1
        Total time spent by all maps in occupied slots (ms)=5972
        Total time spent by all reduces in occupied slots (ms)=0
        Total time spent by all map tasks (ms)=5972
        Total vcore-seconds taken by all map tasks=5972
        Total megabyte-seconds taken by all map tasks=6115328
    Map-Reduce Framework
        Map input records=6
        Map output records=6
        Input split bytes=87
        Spilled Records=0
        Failed Shuffles=0
        Merged Map outputs=0
        GC time elapsed (ms)=195
        CPU time spent (ms)=970
        Physical memory (bytes) snapshot=99921920
        Virtual memory (bytes) snapshot=2079825920
        Total committed heap usage (bytes)=18358272
    File Input Format Counters 
        Bytes Read=0
    File Output Format Counters 
        Bytes Written=161
 22:44:57 INFO mapreduce.ImportJobBase: Transferred 161 bytes in 34.5879 seconds (4.6548 bytes/sec)
 22:44:57 INFO mapreduce.ImportJobBase: Retrieved 6 records.

3. 導(dǎo)入關(guān)系表到HIVE

sqoop import --connect jdbc:mysql://s166:3306/sqoopdb --username sqoop --password sqoop --table employee --hive-import --m 1

4. 導(dǎo)入到HDFS指定目錄

sqoop import \
--connect jdbc:mysql://s166:3306/sqoopdb \
--username sqoop \
--password sqoop \
--target-dir /queryresult \
--table employee --m 1

5. 導(dǎo)入表數(shù)據(jù)子集

我們可以導(dǎo)入表的使用Sqoop導(dǎo)入工具典勇,"where"子句的一個(gè)子集龟劲。并將結(jié)果存儲(chǔ)在HDFS的目標(biāo)目錄撰豺。

sqoop import \
--connect jdbc:mysql://s166:3306/sqoopdb \
--username sqoop \
--password sqoop \
--where "salary>10000" \
--target-dir /wherequery \
--table employee --m 1
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末耻讽,一起剝皮案震驚了整個(gè)濱河市洒琢,隨后出現(xiàn)的幾起案子秧秉,更是在濱河造成了極大的恐慌,老刑警劉巖纬凤,帶你破解...
    沈念sama閱讀 218,525評(píng)論 6 507
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件福贞,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡停士,警方通過查閱死者的電腦和手機(jī)挖帘,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,203評(píng)論 3 395
  • 文/潘曉璐 我一進(jìn)店門完丽,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人拇舀,你說我怎么就攤上這事逻族。” “怎么了骄崩?”我有些...
    開封第一講書人閱讀 164,862評(píng)論 0 354
  • 文/不壞的土叔 我叫張陵聘鳞,是天一觀的道長(zhǎng)。 經(jīng)常有香客問我要拂,道長(zhǎng)抠璃,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 58,728評(píng)論 1 294
  • 正文 為了忘掉前任脱惰,我火速辦了婚禮搏嗡,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘拉一。我一直安慰自己采盒,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,743評(píng)論 6 392
  • 文/花漫 我一把揭開白布蔚润。 她就那樣靜靜地躺著磅氨,像睡著了一般。 火紅的嫁衣襯著肌膚如雪嫡纠。 梳的紋絲不亂的頭發(fā)上烦租,一...
    開封第一講書人閱讀 51,590評(píng)論 1 305
  • 那天,我揣著相機(jī)與錄音除盏,去河邊找鬼左权。 笑死,一個(gè)胖子當(dāng)著我的面吹牛痴颊,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播屡贺,決...
    沈念sama閱讀 40,330評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼蠢棱,長(zhǎng)吁一口氣:“原來是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來了甩栈?” 一聲冷哼從身側(cè)響起泻仙,我...
    開封第一講書人閱讀 39,244評(píng)論 0 276
  • 序言:老撾萬榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎量没,沒想到半個(gè)月后玉转,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,693評(píng)論 1 314
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡殴蹄,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,885評(píng)論 3 336
  • 正文 我和宋清朗相戀三年究抓,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了猾担。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 40,001評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡刺下,死狀恐怖绑嘹,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情橘茉,我是刑警寧澤工腋,帶...
    沈念sama閱讀 35,723評(píng)論 5 346
  • 正文 年R本政府宣布,位于F島的核電站畅卓,受9級(jí)特大地震影響擅腰,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜翁潘,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,343評(píng)論 3 330
  • 文/蒙蒙 一趁冈、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧唐础,春花似錦箱歧、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,919評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至豹绪,卻和暖如春价淌,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背瞒津。 一陣腳步聲響...
    開封第一講書人閱讀 33,042評(píng)論 1 270
  • 我被黑心中介騙來泰國(guó)打工蝉衣, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人巷蚪。 一個(gè)月前我還...
    沈念sama閱讀 48,191評(píng)論 3 370
  • 正文 我出身青樓病毡,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國(guó)和親屁柏。 傳聞我的和親對(duì)象是個(gè)殘疾皇子啦膜,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,955評(píng)論 2 355

推薦閱讀更多精彩內(nèi)容

  • sqoop數(shù)據(jù)導(dǎo)入導(dǎo)出應(yīng)用案例 1 sqoop導(dǎo)入數(shù)據(jù) 將RDBMS中的一個(gè)表數(shù)據(jù)導(dǎo)入到hdfs。表中的每一行被視...
    yanzhelee閱讀 2,013評(píng)論 0 3
  • 1/列出mysql數(shù)據(jù)庫中的所有數(shù)據(jù)庫sqoop list-databases -connect jdbc:mys...
    時(shí)待吾閱讀 2,739評(píng)論 1 5
  • 上節(jié)課學(xué)習(xí)了Hadoop集群測(cè)試淌喻,這節(jié)課我們一起學(xué)習(xí)一下Sqoop僧家,Sqoop是專門用來遷移數(shù)據(jù)的,它可以把數(shù)據(jù)庫...
    文子軒閱讀 6,924評(píng)論 1 9
  • 1.大數(shù)據(jù)協(xié)作框架: 大數(shù)據(jù)協(xié)作框架是Hadoop 2.x生態(tài)系統(tǒng)中幾個(gè)輔助框架裸删。最為常見的是以下幾個(gè): 數(shù)據(jù)轉(zhuǎn)換...
    奉先閱讀 3,068評(píng)論 0 2
  • Apache Sqoop is a tool designed for efficiently transferr...
    白面葫蘆娃92閱讀 1,378評(píng)論 0 0