query-optimization

    0熱度

    1回答

    我有一個模式 applicants - id, max_res_id, max_visa_id applicant_files - id, applicatid, fileid, filetype files - id, name, filetype 申請人 - CREATE TABLE `applicants` ( `id` char(36) NOT NULL, `ma

    0熱度

    1回答

    我試圖找到最好的方法來分解一長串點擊,進入相關的各種登陸器相關表。 SELECT LANDER, COUNT(DISTINCT IP) AS CLICKS FROM ( SELECT LANDER, USER_GROUP, IP FROM ( SELECT LANDER USER_GROUP, IP, TIME FROM CLICKS_IN WHERE

    1熱度

    1回答

    我有數據組織這樣的方式: 有教師1K,學生10K,每個學生都有〜100個家庭作業。 我需要通過班級,或通過他們之間的直接鏈接獲得所有學生的家庭作業,與老師有關。所有的頂點和邊都有一些屬性,我們假設所有需要的索引都已經建立好了,或者我們可以稍後討論它們。 我可以通過這樣的速度不夠快查詢得到所有需要的學生的ID: $query1 = "FOR v1 IN 1..1 INBOUND @teacherId

    -3熱度

    1回答

    我不是那麼到數據庫和我對這個查詢的可能的優化(一的MySql數據庫中定義)以下疑問: SELECT MCPS.id AS series_id, MD_CD.market_details_id AS market_id, MD_CD.commodity_details_id AS commodity_id, MD.market_name AS market_nam

    1熱度

    1回答

    請考慮下面的例子: DROP TABLE IF EXISTS t1; CREATE TABLE t1(a INTEGER PRIMARY KEY, b) WITHOUT ROWID; WITH RECURSIVE cnt(x) AS (VALUES(1000) UNION ALL SELECT x+1 FROM cnt WHERE x<2000) INSERT INTO t1(a,

    0熱度

    3回答

    我有以下查詢: SELECT b.business_name, b.address, b.city, b.state, b.phone_number, i.date FROM business_table b LEFT JOIN inspection_table i ON b.id = i.business_id WHERE i.d

    0熱度

    2回答

    我有一個相當大的查詢用於'map_item'上的用戶搜索。 SELECT map_item_name FROM map_item LEFT JOIN map_section_item ON map_section_item_item_id = map_item_id LEFT JOIN map_section ON map_section_id = map_section_item_sect

    0熱度

    1回答

    我從www.SQLFast.com該SQL調優工具 它看起來棒極了!我用它分析了一個非常複雜的查詢(在單個SQL中超過1000行)。它會自動分析SQL並幫助找出根本原因。我曾經調整過這樣複雜的查詢,這花了我10多個小時的時間進行故障排除。 的問題是,我不能重組這個查詢。該工具聲明它可以重用調優的SQL大綱數據並基於它創建一個SQL配置文件。我該怎麼做?這個例子是不夠清楚...... 有人能幫忙嗎?

    0熱度

    1回答

    ,使用App Engine,我有大約1000個A類型的實體。 我需要預加載整個實體列表,不斷更新,每次用戶登錄。我不能做到靜態。 a_entities = A.query().fetch() 到: 以谷歌雲存儲定價模型(https://cloud.google.com/datastore/pricing)的優勢,我從改變了查詢代碼 a_keys = A.query().fetch(keys_o

    0熱度

    1回答

    我們有一個包含大量文檔的數據庫,隨着時間的推移它會變得越來越大。目前,查詢時間不是問題,因爲數據只有大約1年左右的時間。但是越大,查詢所需的時間越長,如果我們查詢所有內容。 我們的想法是獲取每個第n個文檔,那裏有更多的文檔,您留下一些數據,但您仍然可以從數據中獲得一個良好的圖像。然而,這在Mongo中很難做到,似乎根本不起作用,因爲它仍然遍歷所有文檔。 有沒有辦法設置一個固定的查詢時間,不管有多少