91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

怎么從Hadoop URL讀取數據

發布時間:2021-08-12 09:45:29 來源:億速云 閱讀:114 作者:chen 欄目:云計算

本篇內容主要講解“怎么從Hadoop URL讀取數據”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“怎么從Hadoop URL讀取數據”吧!

1,編寫代碼

import java.io.*;
import java.net.URL;

import org.apache.hadoop.fs.FsUrlStreamHandlerFactory;
import org.apache.hadoop.io.IOUtils;

public class URLCat {
    static {
        URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());
    }
    
    public static void main(String[] args) throws Exception {
        InputStream in = null;
        try {
            in = new URL(args[0]).openStream();
            IOUtils.copyBytes(in, System.out, 4096, false);
        } finally {
            IOUtils.closeStream(in);
        }
    }
}
 


2,編譯Java代碼

  1. $ Hadoopcom.sun.tools.javac.Mian -d classes URLCat.java  

  2. // then the class files will be generated in the directory of classes  

3,打包成jar包

  1. jar cf URLCat.jar classes/URLCat.class   

  2. // then we will get the URLCat.jar, the source is from classes/URLCat.class  


4,運行jar包

hadoop jar URLCat.jar URLCat hdfs://10.10.12.171/input/WordCount/file1  

Result:

  1. hadoop  ok  

  2. hadoop  fail  

  3. hadoop  2.3  

可見hdfs://10.10.12.171/input/WordCount/file1的內容就輸出到了標準輸出了。

到此,相信大家對“怎么從Hadoop URL讀取數據”有了更深的了解,不妨來實際操作一番吧!這里是億速云網站,更多相關內容可以進入相關頻道進行查詢,關注我們,繼續學習!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

吕梁市| 大埔区| 克什克腾旗| 金昌市| 江油市| 白山市| 九龙城区| 西青区| 景泰县| 龙胜| 吴川市| 昌图县| 马公市| 南丹县| 明星| 获嘉县| 黄石市| 吉木萨尔县| 张家界市| 杭州市| 永春县| 竹山县| 双流县| 崇州市| 梅州市| 云浮市| 日照市| 宜阳县| 垣曲县| 闻喜县| 雷山县| 林州市| 汪清县| 亚东县| 永兴县| 包头市| 乡城县| 准格尔旗| 普格县| 白山市| 通山县|