您好,登錄后才能下訂單哦!
本篇文章為大家展示了JAVA API怎樣進行讀寫HDFS,內容簡明扼要并且容易理解,絕對能使你眼前一亮,通過這篇文章的詳細介紹希望你能有所收獲。
package demo; import java.io.IOException; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FSDataInputStream; import org.apache.hadoop.fs.FSDataOutputStream; import org.apache.hadoop.fs.FileStatus; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; public class PutMerge { public static void main(String[] args) throws IOException{ Configuration conf=new Configuration(); FileSystem hdfs=FileSystem.get(conf); FileSystem local=FileSystem.getLocal(conf); //設定輸入目錄于輸出文件 Path inputDir=new Path(args[0]); Path hdfsFile=new Path(args[1]); //得到本地文件列表 FileStatus[] inputFiles=local.listStatus(inputDir); //生成HDFS輸出流 FSDataOutputStream out=hdfs.create(hdfsFile); for(int i=0;i<inputFiles.length;i++){ System.out.println(inputFiles[i].getPath().getName()); //打開本地輸入流 FSDataInputStream in=local.open(inputFiles[i].getPath()); byte buffer[]=new byte[256]; int bytesRead=0; while((bytesRead=in.read(buffer))>0){ out.write(buffer,0,bytesRead); } in.close(); } out.close(); } }
上述內容就是JAVA API怎樣進行讀寫HDFS,你們學到知識或技能了嗎?如果還想學到更多技能或者豐富自己的知識儲備,歡迎關注億速云行業資訊頻道。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。