91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Hadoop和Spark中怎么設置用戶訪問hdfs

發布時間:2021-06-22 16:48:28 來源:億速云 閱讀:757 作者:Leah 欄目:編程語言

本篇文章為大家展示了Hadoop和Spark中怎么設置用戶訪問hdfs,內容簡明扼要并且容易理解,絕對能使你眼前一亮,通過這篇文章的詳細介紹希望你能有所收獲。


1.對于hadoop而言
如果hadoop沒有啟Kerberos或者從Kerberos獲取的用戶為null,那么獲取HADOOP_USER_NAME環境變量,并將它的值作為Hadoop執行用戶。如果我們沒有設置HADOOP_USER_NAME環境變量,那么程序將調用whoami來獲取當前用戶,并用groups來獲取用戶所在組。

所以可以設置環境變量:

export HADOOP_USER_NAME=hdfs
1
或者在程序中設置:

System.setProperty("HADOOP_USER_NAME", "hdfs");
1
2.對于Spark
Spark默認將用戶程序運行所在系統的當前登錄用戶作為用戶程序的關聯用戶。
所以可以采用一下兩種方法:
1.修改當前用戶名為: hdfs
2.代碼中添加:

System.setProperty("user.name", "hdfs");

上述內容就是Hadoop和Spark中怎么設置用戶訪問hdfs,你們學到知識或技能了嗎?如果還想學到更多技能或者豐富自己的知識儲備,歡迎關注億速云行業資訊頻道。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

五华县| 登封市| 大洼县| 泽库县| 全椒县| 象山县| 潜山县| 历史| 伊宁县| 山阳县| 眉山市| 汝阳县| 闻喜县| 蒙山县| 屯留县| 邓州市| 吉安市| 双柏县| 梨树县| 安宁市| 西丰县| 望城县| 若尔盖县| 赤城县| 确山县| 留坝县| 定襄县| 抚松县| 白山市| 原平市| 鄂托克前旗| 北安市| 临沭县| 平邑县| 杭锦旗| 汪清县| 晋中市| 日喀则市| 自贡市| 绩溪县| 湖州市|