91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Hadoop運維記錄系列(二十六)

發布時間:2020-06-30 21:04:28 來源:網絡 閱讀:1299 作者:Slaytanic 欄目:大數據

一分鐘內部署jupyterlab + pyspark2 + hive,前提是spark2是可以在yarn上正常運行的。


最近甲方打著滾的向乙方要求裝 jupyterlab,然后還要用spark2,所以,也是沒轍,誰讓人家是金主爸爸呢。擱我自己是絕不想在生產集群里裝jupyter的。Terminal潛在危險性還是有的,按說是不符合甲方的安全小組規定的,但是業務小組又哭鬧說沒有不行,就看上jupyter的代碼提示了,說什么也得要,我能怎么辦呢。其實你一年也寫不了1000行python,要代碼提示干嗎使呢,哎。


其實這樣的甲方還算好的,后面講一個更不好的甲方。


集群環境

CDH 5.14.0 自帶的 Hive 1.1.0

Spark 2.1.3 Apache版本

Jupyterlab in Anaconda3


按照spark2官方說法,spark2.x開始,僅支持hive 1.2.x以上版本,但實際使用中驗證也可以支持hive 1.1.x版本。但 2.3是絕無可能用 1.1.x版本的,而CDH系統又不能升級到6,所以這塊甲方也只能妥協了,用2.1.3版本,另:CDH5自帶版本是1.6的。


anaconda下載官方的安裝包就可以了,我直接裝在了/opt/anaconda3下面。


打開 spark/conf/spark-env.sh 輸入如下

export?PYSPARK_PYTHON=/opt/anaconda3/bin/python
export?PYSPARK_DRIVER_PYTHON=/opt/anaconda3/bin/jupyter-lab
export?PYSPARK_DRIVER_PYTHON_OPTS='??--ip=172.16.191.30?--port=8890'


使用conda或spark命令安裝sparkmagic及ipykernel 4.9.0

pip?install?sparkmagic
pip/conda?install?ipykernel==4.9.0

因為ipykernel 5.x跟sparkmagic不兼容,會報一個future的exception,需要使用4.9.0才可以

https://github.com/jupyter-incubator/sparkmagic/issues/492


然后,就沒有然后了。


運行? pyspark2 --master yarn 就可以直接啟動基于yarn的jupyterlab了。

直接就啟動 jupyterlab 了

------------------甲方惡行錄----------------

前幾天去給一個公司講了一下 bigtop 如何打包編譯hadoop生態,該公司是給某國企做外包項目的,這個甲方有多無聊加變態呢,一句話表述一下。

Hadoop生態系列要全部漢化并打包成發行版,包括log4j記的日志,內容也得是中文,如果甲方再進一步,那就得是把java語言用易語言重寫一遍了。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

乌兰察布市| 略阳县| 杭锦后旗| 镇赉县| 错那县| 乌恰县| 台北市| 平塘县| 乳山市| 中超| 湘乡市| 沛县| 忻城县| 平谷区| 祁东县| 泸定县| 泉州市| 珠海市| 高台县| 墨江| 阿鲁科尔沁旗| 垫江县| 中卫市| 曲阳县| 兰考县| 筠连县| 新兴县| 遂平县| 孙吴县| 松溪县| 双辽市| 北京市| 永平县| 慈利县| 新建县| 布尔津县| 德钦县| 宜春市| 宝清县| 贵南县| 固始县|