kettle linux hadoop 一些問題

最近在寫linux使用kettle的定時轉換方法,碰見了很噁心的問題 原本流程是從本地讀取文件到hdfs 但是一直提示無法找到hdfs位置 猜測原因是轉換中的 與 這個相沖突,導致存儲地址出現問題 解決方法很簡單,新建個轉換,將讀取文件操作放在裏面,最後job運行時帶上這個轉換就可以了 至於linux下讀取存放文件路徑問題,可以參考如下方法 其中一定要設置文件編碼爲GBK,不然文件保存到hdfs裏
相關文章
相關標籤/搜索