91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

hadoop中怎么將文件上傳到指定datanode

發布時間:2021-07-21 10:14:06 來源:億速云 閱讀:211 作者:Leah 欄目:編程語言

這期內容當中小編將會給大家帶來有關hadoop中怎么將文件上傳到指定datanode,文章內容豐富且以專業的角度為大家分析和敘述,閱讀完這篇文章希望大家可以有所收獲。

package hgs.dfsclient.test;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.CreateFlag;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.fs.permission.FsCreateModes;
import org.apache.hadoop.fs.permission.FsPermission;
import org.apache.hadoop.hdfs.DFSClient;
import org.apache.hadoop.hdfs.DFSOutputStream;
import org.apache.hadoop.hdfs.protocol.*;
import java.io.File;
import java.io.IOException;
import java.net.InetSocketAddress;
import java.net.URI;
import java.net.URISyntaxException;
import java.util.EnumSet;
import java.util.List;
import java.util.Random;
public class MainTest {
    public static void main(String[] args) throws IOException, URISyntaxException {
        Configuration conf =  new Configuration();
        conf.addResource(new File("D://hdfsconf/core-site.xml").toURI().toURL());
        conf.addResource(new File("D://hdfsconf/hdfs-site.xml").toURI().toURL());
        String url = conf.get("fs.defaultFS");
        System.out.println(url);
        Path path = new Path("/user/test.txt");
        DFSClient client = new DFSClient(new URI("hdfs://192.168.0.191:9000/"),conf);
        //favor datanode
        InetSocketAddress [] favor = {new InetSocketAddress("192.168.0.191", 50012)};
        createAndFillFile(client,conf,favor,"/user/test.txt4");
        listBlockLocation(client, conf, "/user/test.txt4",true );
        client.close();
    }
        //將數據傳輸到指定的datanode
    public static void createAndFillFile(DFSClient client,Configuration conf,
                                         InetSocketAddress [] favor,String src) throws IOException {
        DFSOutputStream dfsOutputStream = client.create(src, FsCreateModes.applyUMask(
                FsPermission.getFileDefault(), FsPermission.getUMask(conf)), EnumSet.of(CreateFlag.CREATE, CreateFlag.OVERWRITE),
                true, (short) 1, 32 * 1024 * 1024,
                null, 8192, null, favor, null);
        byte[] b = new byte[1024*3*3];
        for(int i = 0 ;i<100000;i++){
            fileByte(b);
            dfsOutputStream.write(b);
        }
        dfsOutputStream.close();
    }
    static Random rand = new Random(System.nanoTime());
    public static void fileByte(byte[] b){
        if(b != null ){
            rand.nextBytes(b);
        }
    }
        //獲取文件的block位置
    public static void listBlockLocation(DFSClient client,Configuration conf,String src,boolean needLocation) throws IOException {
        DirectoryListing directoryListing = client.listPaths(src, HdfsFileStatus.EMPTY_NAME,
                needLocation);
        HdfsFileStatus[] fileStatuses = directoryListing.getPartialListing();
        for(int i=0 ; i <fileStatuses.length ; i++){
            HdfsLocatedFileStatus hl = (HdfsLocatedFileStatus)fileStatuses[i];
            LocatedBlocks locatedBlocks = hl.getLocatedBlocks();
            List<LocatedBlock> locatedBlocks1 = locatedBlocks.getLocatedBlocks();
            for(LocatedBlock lb : locatedBlocks1 ){
                DatanodeInfo[] locations = lb.getLocations();
                for(DatanodeInfo li : locations){
                    System.out.println("addr:"+li.getIpAddr()+"--port:"+li);
                }
            }
        }
    }
}

上述就是小編為大家分享的hadoop中怎么將文件上傳到指定datanode了,如果剛好有類似的疑惑,不妨參照上述分析進行理解。如果想知道更多相關知識,歡迎關注億速云行業資訊頻道。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

尼勒克县| 嵊泗县| 昌图县| 莎车县| 武义县| 龙山县| 钟山县| 洛阳市| 保德县| 河北省| 综艺| 天峻县| 阿拉尔市| 牡丹江市| 灵璧县| 古交市| 伊吾县| 德令哈市| 威海市| 萨迦县| 长葛市| 嘉义县| 浮梁县| 平塘县| 张家口市| 陆良县| 呼图壁县| 红安县| 南乐县| 大渡口区| 长顺县| 麟游县| 庄浪县| 板桥市| 临洮县| 万山特区| 资源县| 监利县| 平定县| 潼关县| 文山县|