溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

spark-local 模式 提示 /tmp/hive hdfs 權限不夠的問題

發布時間:2020-05-09 14:37:57 來源:網絡 閱讀:6030 作者:去買大白兔 欄目:大數據

   spark版本為2.0    

    在spark 在 local 模式下啟動,有時會報/tmp/hive hdfs 權限不夠的問題,但是我們并沒有將hdfs-site.xml配置文件放到我們的項目中,spark的文件應該會存在本地電腦上,但是為什么會報這個錯誤呢?這個問題非常詭異,有的同事會報此錯誤,有的則不會。都是同樣的配置。

    

        這是在2016/10/31 報的錯誤,之前在本地測試從來不會報這個錯誤,但是在這天早上2個同事反映起不來項目,我自己試了一下也起不來,同樣的錯誤。

最終發現spark報的錯誤不準確,如果在windows環境下spark會去某一個盤下創建“tmp/hive/用戶名” 的文件夾,在這個文件夾下存放一些臨時文件,注意,這里并不是數據文件,數據文件的地址另有設置。我們發現報錯的同事都是只創建了“tmp/hive”的文件夾,下面的用戶名文件夾并沒有創建成功,可以推斷,spark在下次啟動的時候,創建此文件夾出錯了,所以我們把“tmp/hive”的文件夾刪除,再次啟動,spark就可以正常運行了,運行成功后會創建“tmp/hive/用戶名” 的文件夾。

值得一提的是,本機測試之前沒有出現此問題,之前都是創建在E盤下

    spark-local 模式  提示 /tmp/hive hdfs 權限不夠的問題


而2016/10/31(周一)來時,spark卻選擇了C盤,期間,代碼,配置,環境等都沒有變化,這個原因到目前未能解開。

spark-local 模式  提示 /tmp/hive hdfs 權限不夠的問題

這個xiaokan的文件夾也是一定要在第一次spark啟動失敗后(創建了tmp/hive),后將tmp/hive刪除后才能創建起來,具體原理,至今未明確。


這里補充一句,在后續我們使用spark2.1版本后,再也沒有出現此問題,可能是spark2.0的坑吧。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

亚洲午夜精品一区二区_中文无码日韩欧免_久久香蕉精品视频_欧美主播一区二区三区美女