2017-01-19 26 views
0

我有一個csv文件,每個記錄(行)有時間戳記。我使用spark csv解析它(我將它包含到Spark 1.5.2中),但會發生一件奇怪的事情。解析csv文件時移動

我的文件中的所有時間戳都移動了3個小時。例如,我的值從2015-12-27 00:00:00開始並以2016-12-28 00:00:00結尾。現在,當我使用Spark解析這個時,我得到範圍從2015-12-27 03:00:002015-12-28 03:00:00的值。

爲什麼會發生這種情況,處理它的最好方法是什麼?

回答

0

問題出在服務器上的時區與UTC不同。這搞砸了解析,在解析過程中增加了3個小時。