2011-09-20 25 views
0

的並行讀取的高數我有一個PHP文件,動態讀取來自各種來源的信息,如一個PHP文件

search.php?q=keyword&category=cat-number 

假設我們有10,000個併發的遊客。將流量分成不同的文件(如果可能)比較好

1,000 on cat1.php?q=keyword 
1,000 on cat2.php?q=keyword 
1,000 on cat3.php?q=keyword 
.... 

我的意思是創建一個搜索php文件的每個類別拆分搜索幾個php文件。

當增加對單個php文件的併發訪問次數時,是否存在理論上和實踐上的性能缺陷?

+6

我喜歡上一個問題涉及到基本語言語法的人的「10,000個併發訪問者」問題。 –

+0

在原文中,我在括號中添加了這個(只是想象)......但我刪除了:) – Googlebot

+0

@YourCommonSense,這很粗魯。 – Pacerier

回答

1

不需要。事實上,您的服務器一次又一次地使用同一文件應該會更容易。使用APC時,只需要對該文件進行緩存,操作系統文件系統也會緩存文件。即使磁盤也能夠更容易地訪問文件,因爲它的頭部始終處於相同的位置。理論上,當然,在實踐中我不認爲你會注意到。

1

不,沒有用於分割像這樣的流量。

1

你想要做的事情是負載平衡,但沒有意義。擁有不同的文件不會做任何事情,除了增加開銷。另外,如果您的數據源是遠程位置(另一個網站)或數據庫,那麼執行搜索時,它不會是PHP的瓶頸。

+0

不是遠程來源,我的意思是一個數據庫或平面文件。 – Googlebot

+0

如果你正在搜索數據庫--PHP不會是瓶頸。如果你正在搜索文件,那麼你會遇到CPU /內存限制,因爲如果你有使用數據庫的選項,搜索一個平面文件基本上是一個可怕的想法。 –