大數(shù)據(jù)學(xué)習(xí)-網(wǎng)絡(luò)API訪問(wèn)

使用hadoop客戶端api訪問(wèn)hdfs


1.創(chuàng)建java項(xiàng)目
2.導(dǎo)入hadoop類(lèi)庫(kù)
注意
我用的是idea創(chuàng)建的java項(xiàng)目,用maven來(lái)管理jar包

@Test
   public void readFile() throws Exception {
       System.out.println("HELLO");
       URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());
       URL url = new URL("hdfs://20.18.5.1:8020/user/hadoop/hadoop/test.txt");
       URLConnection conn = url.openConnection();
       InputStream is = conn.getInputStream();
       byte[] buf = new byte[is.available()];
       is.read(buf);
       is.close();
       String str = new String(buf);
       System.out.println(str);
   }

在跑test的時(shí)候,因?yàn)閔adoop的依賴很多,想的是在用的時(shí)候再一次導(dǎo)入,因?yàn)樵瓉?lái)沒(méi)有hdfs協(xié)議,所以要跑url這一行的時(shí)候是過(guò)不去的,需要寫(xiě)URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());這行代碼才能過(guò)去芽隆。FsUrlStreamHandlerFactory是在hadoop-common.jar里面的,所以我只導(dǎo)入了hadoop-common

        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-common</artifactId>
            <version>3.2.1</version>
        </dependency>

但是導(dǎo)入以后依然回報(bào)下面的錯(cuò)誤

java.net.MalformedURLException: unknown protocol: hdfs

    at java.net.URL.<init>(URL.java:593)
    at java.net.URL.<init>(URL.java:483)
    at java.net.URL.<init>(URL.java:432)
    at TestHDFS.readFile(TestHDFS.java:17)

于是一次導(dǎo)入相關(guān)的依賴,發(fā)現(xiàn)在導(dǎo)入下面依賴以后就可以正常跑起來(lái)了,下面的依賴包含了上面common的依賴胚吁,所以上面的common可以刪掉

<dependency>
     <groupId>org.apache.hadoop</groupId>
     <artifactId>hadoop-client</artifactId>
     <version>3.2.1</version>
</dependency>

服務(wù)器臼闻,機(jī)架,機(jī)房囤采,大數(shù)據(jù)中心

image.png

API
blade 刀片服務(wù)器
rack 機(jī)架(一臺(tái)機(jī)架上有6個(gè)刀片服務(wù)器述呐,并且每一個(gè)機(jī)架上都有交換機(jī))
一個(gè)機(jī)房有多個(gè)機(jī)架,每個(gè)機(jī)架之間也通過(guò)交換機(jī)來(lái)交換數(shù)據(jù)
一個(gè)數(shù)據(jù)中心有多個(gè)機(jī)房


image.png

hadoop API訪問(wèn)java代碼

@Test
    public void readFile() throws Exception {
        System.out.println("HELLO");
        URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());
        URL url = new URL("hdfs://20.18.5.1:8020/user/hadoop/hadoop/test.txt");
        URLConnection conn = url.openConnection();
        InputStream is = conn.getInputStream();
        byte[] buf = new byte[is.available()];
        is.read(buf);
        is.close();
        String str = new String(buf);
        System.out.println(str);
    }

    @Test
    public void readFileByURL() throws Exception {
        System.out.println("HELLOURL");
        URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());
        InputStream in =  new URL("hdfs://20.18.5.1:8020/user/hadoop/hadoop/test.txt").openStream();
        byte[] buf = new byte[in.available()];
        in.read(buf);
        in.close();
        String str = new String(buf);
        System.out.println(str);
    }


    @Test
    public void readFileByAPI() throws Exception {
        Configuration conf = new Configuration();
        conf.set("fs.default.name", "hdfs://20.18.5.1:8020/");
        FileSystem fs = FileSystem.get(conf);
        Path path = new Path("/user/hadoop/hadoop/test.txt");
        FSDataInputStream fis = fs.open(path);
        byte[] buf = new byte[1024];
        int len = -1;

        ByteArrayOutputStream baos = new ByteArrayOutputStream();
        while ( (len = fis.read(buf)) != -1){
            baos.write(buf,0,len);
        }
        fis.close();
        baos.close();
        System.out.println("---------------------------------------");
        System.out.println(baos);
        System.out.println(new String(baos.toByteArray()));
        System.out.println(baos.toByteArray());
        System.out.println(baos.toByteArray().toString());
        System.out.println("---------------------------------------");
    }

    @Test
    public void readFileByAPI2() throws Exception {
        Configuration conf = new Configuration();
        conf.set("fs.default.name", "hdfs://20.18.5.1:8020/");
        FileSystem fs = FileSystem.get(conf);
        Path path = new Path("/user/hadoop/hadoop/test.txt");
        FSDataInputStream fis = fs.open(path);
        ByteArrayOutputStream baos = new ByteArrayOutputStream();
        IOUtils.copyBytes(fis,baos,1024,true);
        System.out.println(new String(baos.toByteArray()));
    }

    @Test
    public void mkdir() throws Exception {
        Configuration conf = new Configuration();
        conf.set("fs.default.name", "hdfs://20.18.5.1:8020/");
        FileSystem fs = FileSystem.get(conf);
        fs.mkdirs(new Path("/user/hadoop/myhadoop"));
    }

@Test
    public void putFile() throws Exception {
        Configuration conf = new Configuration();
        conf.set("fs.default.name", URLStr);
        FileSystem fs = FileSystem.get(conf);
        FSDataOutputStream fos = fs.create(new Path("/user/hadoop/myhadoop/a.txt"));
        fos.write("hello lll".getBytes());
        fos.close();

    }

    @Test
    public void removeFile() throws Exception {
        Configuration conf = new Configuration();
        conf.set("fs.default.name", URLStr);
        FileSystem fs = FileSystem.get(conf);
        fs.delete(new Path("/user/hadoop/myhadoop"),true);

    }

    @Test
    public void aapendFile() throws Exception {
        Configuration conf = new Configuration();
        conf.set("fs.default.name", URLStr);
        FileSystem fs = FileSystem.get(conf);
        FSDataOutputStream fos = fs.append(new Path("/user/hadoop/myhadoop/a.txt"));
        fos.write("hello xxx".getBytes());
        fos.close();

    }


    @Test
    public void test1() throws Exception {
        Configuration conf = new Configuration();
        FileSystem fs = FileSystem.get(conf);
        FSDataInputStream fis = fs.open(new Path("hdfs://nn1/user/hadoop/hello.txt"));
        ByteArrayOutputStream baos = new ByteArrayOutputStream();
        IOUtils.copyBytes(fis,baos,1024);
        baos.close();
        fis.close();
        System.out.println(new String(baos.toByteArray()));
    }

    @Test
    public void test2() throws Exception {
        Configuration conf = new Configuration();
        FileSystem fs = FileSystem.get(conf);
        FSDataOutputStream fout =  fs.create(new Path("hdfs://nn1/user/hadoop/a.txt"));
        fout.write("hello boy".getBytes());
        fout.close();
    }

    @Test
    public void test3() throws Exception {
        Configuration conf = new Configuration();
        FileSystem fs = FileSystem.get(conf);
        FSDataOutputStream fout =  fs.create(new Path("hdfs://nn1/user/hadoop/a.txt"),
                true,1024,(short)2,1024);
        FileInputStream fios = new FileInputStream("e:/a.txt");
        IOUtils.copyBytes(fios,fout,1024);
        fout.close();
        fios.close();
    }

blocksize的配置蕉毯,在上面代碼test3中遇到的問(wèn)題以及修改

配置hadoop的最小blockSize,必須是512的倍數(shù)乓搬,因?yàn)樵趆dfs寫(xiě)入過(guò)程期間會(huì)進(jìn)行校驗(yàn),最小進(jìn)行的單位是512字節(jié)進(jìn)行校驗(yàn)代虾,所以大小必須超過(guò)512的大小进肯,且是512的倍數(shù)

image.png

需要在節(jié)點(diǎn)中的hdfs-site.xml文件中添加下面屬性的值來(lái)修改block的size,修改完以后需要重新啟動(dòng)節(jié)點(diǎn)start-dfs.sh

        <property>
                <name>dfs.namenode.fs-limits.min-block-size</name>
                <value>1024</value>
        </property>
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末棉磨,一起剝皮案震驚了整個(gè)濱河市江掩,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌乘瓤,老刑警劉巖环形,帶你破解...
    沈念sama閱讀 222,000評(píng)論 6 515
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異衙傀,居然都是意外死亡抬吟,警方通過(guò)查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 94,745評(píng)論 3 399
  • 文/潘曉璐 我一進(jìn)店門(mén)统抬,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)火本,“玉大人,你說(shuō)我怎么就攤上這事聪建「婆希” “怎么了?”我有些...
    開(kāi)封第一講書(shū)人閱讀 168,561評(píng)論 0 360
  • 文/不壞的土叔 我叫張陵金麸,是天一觀的道長(zhǎng)擎析。 經(jīng)常有香客問(wèn)我,道長(zhǎng)钱骂,這世上最難降的妖魔是什么叔锐? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 59,782評(píng)論 1 298
  • 正文 為了忘掉前任挪鹏,我火速辦了婚禮见秽,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘讨盒。我一直安慰自己解取,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 68,798評(píng)論 6 397
  • 文/花漫 我一把揭開(kāi)白布返顺。 她就那樣靜靜地躺著禀苦,像睡著了一般蔓肯。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上振乏,一...
    開(kāi)封第一講書(shū)人閱讀 52,394評(píng)論 1 310
  • 那天蔗包,我揣著相機(jī)與錄音,去河邊找鬼慧邮。 笑死调限,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的误澳。 我是一名探鬼主播耻矮,決...
    沈念sama閱讀 40,952評(píng)論 3 421
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼忆谓!你這毒婦竟也來(lái)了裆装?” 一聲冷哼從身側(cè)響起,我...
    開(kāi)封第一講書(shū)人閱讀 39,852評(píng)論 0 276
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤倡缠,失蹤者是張志新(化名)和其女友劉穎哨免,沒(méi)想到半個(gè)月后,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體昙沦,經(jīng)...
    沈念sama閱讀 46,409評(píng)論 1 318
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡铁瞒,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 38,483評(píng)論 3 341
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了桅滋。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片慧耍。...
    茶點(diǎn)故事閱讀 40,615評(píng)論 1 352
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖丐谋,靈堂內(nèi)的尸體忽然破棺而出芍碧,到底是詐尸還是另有隱情,我是刑警寧澤号俐,帶...
    沈念sama閱讀 36,303評(píng)論 5 350
  • 正文 年R本政府宣布泌豆,位于F島的核電站,受9級(jí)特大地震影響吏饿,放射性物質(zhì)發(fā)生泄漏踪危。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,979評(píng)論 3 334
  • 文/蒙蒙 一猪落、第九天 我趴在偏房一處隱蔽的房頂上張望贞远。 院中可真熱鬧,春花似錦笨忌、人聲如沸蓝仲。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 32,470評(píng)論 0 24
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)袱结。三九已至亮隙,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間垢夹,已是汗流浹背溢吻。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 33,571評(píng)論 1 272
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留果元,地道東北人煤裙。 一個(gè)月前我還...
    沈念sama閱讀 49,041評(píng)論 3 377
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像噪漾,于是被迫代替她去往敵國(guó)和親硼砰。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,630評(píng)論 2 359