0
該命令適用於本地Linux精細錯誤而來自本地的Linux文件解壓縮到HDFS
gzip -d omega_data_path_2016-08-10.csv.gz
我想解壓縮與擴展名的文件.csv.gz到HDFS的位置。
我想下面的命令,我得到這個錯誤
[[email protected] localinputfiles]$ gzip -d omega_data_path_2016-08-10.csv.gz | hadoop dfs -put /user/cloudera/inputfiles/
gzip: omega_data_path_2016-08-10.csv already exists; do you wish to overwrite (y or n)? DEPRECATED: Use of this script to execute hdfs command is deprecated.
Instead use the hdfs command for it.
put: `/user/cloudera/inputfiles/': No such file or directory
有人能幫助我解決這個問題?
有什麼用-dc的?我可以使用gzip -c而不是gzip -dc嗎? –
'-d'用於解壓縮。 – franklinsijo
感謝您的回答。它幫助 –