postgresql

    0熱度

    2回答

    我喜歡一個表複製到文件我的PostgreSQL 我嘗試這個查詢 COPY demo TO '/home/rck/Desktop/trial.csv' 但顯示權限被拒絕 我也試過\副本,但它顯示了語法錯誤 \COPY demo TO '/home/rck/Desktop/trial.csv' 的錯誤是 :\ 「 LINE 1」ERROR處或附近語法錯誤「:\ COPY演示TO「/home/r

    2熱度

    1回答

    下面是該查詢我想 SELECT * FROM information_schema.tables WHERE table_name = 'shop_ean_2016_06_12'; 但「2016_06_12」查詢應該是昨天。 我知道「NOW() - '1天':: INTERVAL」,但我想在表名比較中使用它。 謝謝你的任何這樣做。

    0熱度

    1回答

    我試圖找出一個奇怪的錯誤的原因,這一整天。 我有一個模型,這行代碼(由控制器操作調用): # it always works self.deliveries.create(subscriptions.pluck('DISTINCT endpoint').collect {|e| {endpoint: e}}) 一切正常(我的本地計算機上,在生產服務器上,甚至上千交付)。 爲了提高性能我更換了

    2熱度

    3回答

    我有時間戳列: time_column 2016-02-02 08:09:59.351000 2016-02-02 15:09:21.756000 2016-02-02 15:42:33.287000 2016-02-02 15:53:26.394000 我想編寫輸出給定月份不同時間戳的查詢。 因此,輸出將 jan feb mar apr may jun .... 9 1 10

    0熱度

    1回答

    我在PostgreSQL 9.4中有一個包含checked_at時間戳字段和check_interval整數字段的表。 我需要只返回行WHERE checked_at > NOW() - INTERVAL check_interval || ' minutes' 會使用多列索引提高了查詢的速度?還是有其他方法來優化它? 該表仍在設計中,但最終希望能夠搜索大約5-10萬條記錄。

    0熱度

    1回答

    使用Rails 4,我有一個列(page_id),我需要強制它刪除所有當前在數據庫列中的數據(它在dev中,所以我現在不關心任何數據庫) 。 我的遷移是這樣的: change_column :sections, :page_id, :uuid (我是從整數遷移離開頁面) 如何使用change_column並刪除所有這就是目前我的數據庫中的數據?或者我需要做一個remove_column,然後add

    1熱度

    2回答

    我已經根據公共ID映射了兩個表,但我希望將所有與特定公司關聯的電話號碼放在一行而不是多行中,分爲三列「電話」,「傳真」 ,和「免費電話」。以下是數據輸出的示例。 Dr. Dimes 5553456879 Telephone Dr. Dimes 5553455600 Toll Free Dr. Dimes 555345Fax SELECT fleet.company_name,

    4熱度

    1回答

    我是新來的SQLAlchemy(奧姆斯在通常情況下),我試圖在移動現有的應用程序SQLAlchemy的,這樣我們就可以從現有(和繁瑣的更新)查詢轉移一些代碼的複雜性,到Python。不幸的是,我在數據庫反射後立即出現錯誤。雖然我可以直接查詢表,但我實際上沒有直接訪問類或類之間的關係。下面是我正在嘗試做的一個大約最小的例子。 現存的Postgres數據表: dev=> \d+ gmt_file

    0熱度

    1回答

    之間的直方圖距離這裏以下this question續集 背景我有2個數據庫:事件(400K行整個年)和汽車(6萬行每月)。較小的樣本是here看起來像這樣 事件具有位置x y。汽車具有car_id,time_now,time_prev,time_next以及位置x y。 預期結果應該是在事件發生時間±德爾塔時間時從每個事件到所有汽車的距離的直方圖。 或者,對於每個事件,在事件發生時±δ的情況下,每

    2熱度

    3回答

    我可以在36秒內使用Matlab的DB工具箱導入200萬行。如何在20分鐘內導入600萬行? 以下查詢的最終提取步驟大約需要36秒。 q = 'select ... from mytable limit 2000000'; %notice 2 mil limit result = exec(conn, q); final_result = fetch(result); % Takes abou