使用具有預安裝默認設置的DataStax Community v 2.1.2-1(AMI v 2.5)。 ,我有一個表:即使在10秒超時後查詢擁有超過10,000行的密鑰時,Cassandra也會超時
CREATE TABLE notificationstore.note (
user_id text,
real_time timestamp,
insert_time timeuuid,
read boolean,
PRIMARY KEY (user_id, real_time, insert_time))
WITH CLUSTERING ORDER BY (real_time DESC, insert_time ASC)
AND bloom_filter_fp_chance = 0.01
AND caching = '{"keys":"ALL", "rows_per_partition":"NONE"}
AND **default_time_to_live** = 20160
其他的結構:
我有2個節點。在m3.large上有1 x 32(SSD)。 即使在此特定表上一致性設置爲1,我仍然面臨超時問題。
- 我堆空間增加到3GB [8GB的RAM大小]
- 我增加了讀取超時至10秒。
select count (*) from note where user_id = 'xxx' limit 2; // errors={}, last_host=127.0.0.1.
我想知道如果這個問題可能是隨着時間的生活嗎?或者是否有任何其他配置對此有任何調整。
數據庫中的數據非常小。
此問題也會在您插入時發生。這發生在一段時間後(超過6小時)
謝謝。
指這個問題... http://stackoverflow.com/questions/24899220/rpc-timeout-in-cassandra/24909957#24909957 – 2014-12-07 09:33:31
我已經把超時時間爲10秒並重新啓動我的卡桑德拉兩個節點上。沒有運氣。即使有,我想它太費時10秒查詢給我的表是不是很大。 – mehnaazm 2014-12-07 10:03:16
@mehnaazm我認爲這是我的答案在這裏相同的問題:http://stackoverflow.com/questions/27376784/cassandra-timing-out-because-of-ttl-expiration/27391109#27391109。我應該在這裏複製這個答案的完整性嗎? – BrianC 2014-12-10 16:40:07