0
我有一個Spark作業,在編寫的COPY
部分失敗。我已經在S3中處理了所有的輸出,但在計算如何手動加載時遇到了問題。如何手動將火花紅移AVRO文件加載到Redshift中?
COPY table
FROM 's3://bucket/a7da09eb-4220-4ebe-8794-e71bd53b11bd/part-'
CREDENTIALS 'aws_access_key_id=XXX;aws_secret_access_key=XXX'
format as AVRO 'auto'
在我的文件夾中有一個_SUCCESS
,_committedxxx
和_startedxxx
文件,然後將99個文件都開始使用前綴part-
。當我運行此我得到一個stl_load_error
- >Invalid AVRO file found. Unexpected end of AVRO file.
如果我採取這一前綴了,然後我得到:
[XX000] ERROR: Invalid AVRO file Detail: ----------------------------------------------- error: Invalid AVRO file code: 8001 context: Cannot init avro reader from s3 file Incorrect Avro container file magic number query: 10882709 location: avropath_request.cpp:432 process: query23_27 [pid=10653] -----------------------------------------------
這是可能的嗎?這將是很好的保存處理。