91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

如何讓HDFS中的Java和Python API接口連接

發布時間:2021-10-09 16:38:24 來源:億速云 閱讀:211 作者:柒染 欄目:大數據

今天就跟大家聊聊有關如何讓HDFS中的Java和Python API接口連接,可能很多人都不太了解,為了讓大家更加了解,小編給大家總結了以下內容,希望大家根據這篇文章可以有所收獲。

現在進入HDFS中的Java和Python的API操作,后面可能介紹Scala的相關的。

在講Java API之前介紹一下使用的IDE——IntelliJ IDEA ,我本人使用的是2020.3 x64的社區版本。

Java API

創建maven工程,關于Maven的配置,在IDEA中,Maven下載源必須配置成阿里云。

如何讓HDFS中的Java和Python API接口連接

在對應的D:\apache-maven-3.8.1-bin\apache-maven-3.8.1\conf\settings.xml需要設置阿里云的下載源。

下面創建maven工程,添加常見的依賴

如何讓HDFS中的Java和Python API接口連接

添加hadoop-client依賴,版本最好和hadoop指定的一致,并添加junit單元測試依賴。

<dependencies>   <dependency>         <groupId>org.apache.hadoop</groupId>         <artifactId>hadoop-common</artifactId>         <version>3.1.4</version>   </dependency>   <dependency>         <groupId>org.apache.hadoop</groupId>         <artifactId>hadoop-hdfs</artifactId>         <version>3.1.4</version>   </dependency>   <dependency>       <groupId>org.apache.hadoop</groupId>       <artifactId>hadoop-client</artifactId>       <version>3.1.4</version>   </dependency>   <dependency>       <groupId>junit</groupId>       <artifactId>junit</artifactId>       <version>4.11</version>   </dependency> </dependencies>

HDFS文件上傳

在這里編寫測試類即可,新建一個java文件:main.java

這里的FileSyste一開始是本地的文件系統,需要初始化為HDFS的文件系統

import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import org.junit.Test; import java.net.URI; public class main {      @Test     public void testPut() throws Exception {         //   獲取FileSystem類的方法有很多種,這里只寫一種(比較常用的是使URI)         Configuration configuration = new Configuration();         // user是Hadoop集群的賬號,連接端口默認9000         FileSystem fileSystem = FileSystem.get(                 new URI("hdfs://192.168.147.128:9000"),                 configuration,                 "hadoop");         // 將f:/stopword.txt 上傳到 /user/stopword.txt         fileSystem.copyFromLocalFile(                 new Path("f:/stopword.txt"), new Path("/user/stopword.txt"));         fileSystem.close();     } }

在對應的HDFS中,就會看見我剛剛上傳的機器學習相關的停用詞。

如何讓HDFS中的Java和Python API接口連接

HDFS文件下載

由于每次都需要初始化FileSystem,比較懶的我直接使用@Before每次加載。

HDFS文件下載的API接口是copyToLocalFile,具體代碼如下。

@Test public void testDownload() throws Exception {     Configuration configuration = new Configuration();     FileSystem fileSystem = FileSystem.get(             new URI("hdfs://192.168.147.128:9000"),             configuration,             "hadoop");     fileSystem.copyToLocalFile(             false,             new Path("/user/stopword.txt"),             new Path("stop.txt"),             true);     fileSystem.close();     System.out.println("over"); }

Python API

下面主要介紹hdfs

我們通過命令pip install hdfs安裝hdfs庫,在使用hdfs前,使用命令hadoop fs -chmod -R 777 /  對當前目錄及目錄下所有的文件賦予可讀可寫可執行權限。

>>> from hdfs.client import Client >>> #2.X版本port 使用50070  3.x版本port 使用9870 >>> client = Client('http://192.168.147.128:9870')   >>> client.list('/')   #查看hdfs /下的目錄 ['hadoop-3.1.4.tar.gz'] >>> client.makedirs('/test') >>> client.list('/') ['hadoop-3.1.4.tar.gz', 'test'] >>> client.delete("/test") True >>> client.download('/hadoop-3.1.4.tar.gz','C:\\Users\\YIUYE\\Desktop') 'C:\\Users\\YIUYE\\Desktop\\hadoop-3.1.4.tar.gz' >>> client.upload('/','C:\\Users\\YIUYE\\Desktop\\demo.txt') >>> client.list('/') '/demo.txt' >>> client.list('/') ['demo.txt', 'hadoop-3.1.4.tar.gz'] >>> # 上傳demo.txt 內容:Hello \n hdfs >>> with client.read("/demo.txt") as reader: ...          print(reader.read()) b'Hello \r\nhdfs\r\n'

相對于Java API,Python API連接實在簡單。

看完上述內容,你們對如何讓HDFS中的Java和Python API接口連接有進一步的了解嗎?如果還想了解更多知識或者相關內容,請關注億速云行業資訊頻道,感謝大家的支持。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

探索| 凌云县| 台安县| 通山县| 绍兴县| 沈阳市| 武功县| 莲花县| 丰原市| 祁阳县| 黔东| 旺苍县| 抚远县| 潞西市| 阿拉善盟| 资源县| 西乡县| 南汇区| 上犹县| 南川市| 大方县| 华坪县| 来宾市| 渝北区| 郧西县| 星子县| 五原县| 黎城县| 白朗县| 聊城市| 闽侯县| 大港区| 龙陵县| 宁德市| 玉田县| 邵东县| 依安县| 湖南省| 宜兰市| 温州市| 江油市|