2017-02-11 54 views
1

所以我試圖測試一個網站,並試圖通過「常識」來解釋彙總報告(當我試圖查找每個結果的含義,我無法理解它們應該如何解釋)。Jmeter解釋簡單的結果

TEST 1

Thread Group: 1 
Ramp-up: 1 
Loop Count: 1 

- Samples 1 
- Average 645 
- Median 645 
- 90% Line 645 
- Min 645 
- Max 645 
- Throughput 1.6/sec 

所以我的假設是,第一個結果是最好的結局下。

TEST 2

Thread Group: 5 
Ramp-up: 1 
Loop Count: 1 

- Samples 1 
- Average 647 
- Median 647 
- 90% Line 647 
- Min 643 
- Max 652 
- Throughput 3.5/sec 

我假設測試2的結果並沒有那麼糟糕,因爲結果是接近測試1.

TEST 3

Thread Group: 10 
Ramp-up: 1 
Loop Count: 1 

- Samples 1 
- Average 710 
- Median 711 
- 90% Line 739 
- Min 639 
- Max 786 
- Throughput 6.2/sec 

鑑於巨大差異,我假設如果10個用戶同時請求訪問該網站,則表現不佳。這組測試如何用簡單的術語來解釋?

+0

這個結果有些不對,在測試1中:對於樣本計數1,獲得3.5吞吐量永遠不可能,平均延遲爲645毫秒。向我發送報告中確切的樣本數量。 –

回答

0

它與可用資源一樣簡單。

響應時間取決於很多事情,以下是關鍵因素:

  1. 服務器計算機資源(網絡,CPU,磁盤,內存等)
  2. 服務器機器配置(類型的服務器,節點數量,沒有線程等)。
  3. 客戶機資源(網絡,CPU,磁盤,內存等)

當你瞭解它是關於服務器的主要是如何應對繁忙鄰療法請求和多少客戶機繁忙生成/處理負載(我假設你運行在單一機器上的所有10個用戶)

知道實際的原因

最好的辦法是通過Monitoring這些使用資源nmon for linux & perfmon or task manager for Windows(或任何其他監控工具),並瞭解運行1, 5, 10用戶時的差異。


除了理論的一部分,我認爲它的通話時間,因爲你是把其中的服務器需要時間處理前面的請求負載突然。

您是否在同一臺機器上使用客戶端和服務器?如果是,那會告訴我們系統資源既用於客戶端線程(10個線程)也用於服務器線程。


Resposne時間=客戶端發送請求到服務器時間+服務器處理時間+服務器發送resposne到客戶端時

在你的情況下,它可能是一個或更多的時間的增加。

如果你有良好的帶寬,那麼它可能是server processing time

0

你的結果是混亂的。

對於線程數爲5和10,您給出了相同數量的示例 - 1.它應該是1個線程,5個線程和10個線程的10個樣本。您的實驗具有統計上較少的樣本來完成任何事情。您應該以這樣的方式建模您的負載,以便在加速5個和10個線程之前,1個線程負載持續較長時間。如果你正在運行一個小的測試,以評估應用程序的可擴展性,你可以不喜歡

1線 - 15分鐘

5個線程 - 15分鐘

10個線程 - 15分鐘

提供了每個15分鐘的觀察結果。如果您的應用程序真的縮放,即使在增加的負載下它也應該保持相同的響應時間。

看着你的結果,我沒有看到你的應用程序的任何問題。沒有什麼變化。再次,你沒有太多的樣本可以導致統計相關的結論。