2011-04-30 8 views
1

我正在尋找在關於現實世界的經驗ajaxcrawling:與服務器端創建的網站SEO相比,AJAX有效性如何?

http://code.google.com/web/ajaxcrawling/index.html

我特別關心的後期臭名昭著Gizmodo的失敗,我知道我可以通過谷歌找到他們了,但它不是這對我來說清楚的是,這種ajaxcrawling方法與服務器端生成的網站相比有多有效。 我想製作一個主要在客戶端生活的wiki,以及由ajax json填充的wiki。它只是感覺更加流暢,我認爲這將是我的競爭優勢。 (維基百科,維基媒體) 顯然,對於一個維基百科而言,擁有工作搜索引擎優化非常重要。

我會很高興你有處理客戶端開發的任何經驗。

我的研究表明,現在網絡上的普遍共識是,除非你不關心SEO(例如,投資組合網站,公司網站等),否則你絕對應該避免使用ajax網站。

回答

1

那麼,當你有一個基於複雜的客戶端行爲動態加載內容的頁面時,就會出現這些SEO問題。蜘蛛並不總是足夠聰明,無法知道JavaScript何時被注入,所以如果他們無法遵循鏈接來獲取內容,他們中的大多數人都不會以可預測的方式理解發生了什麼,因此不會能夠完全索引您的網站。

如果您可以通過選項獲得導致靜態內容的唯一URL,即使它們都通過URL重寫方案返回單個頁面,也可以解決問題。此外,當您獲得大量流量時,它將產生巨大的收益 - 整個頁面可以緩存在Web服務器/代理級別,從而減少服務器負載。

希望有所幫助。

+0

如果我理解正確,我沒有任何SEO問題,只要我網站上的每個網頁都可以通過絕對網址訪問?例子:有人訪問我的主頁,我在那裏有一個ajax調用,加載json數據並通過客戶端模板進行組裝。抓取工具能夠讀取該文件,還是隻讀取了html? – Blub 2011-04-30 16:42:01

+0

@Blub:如果您希望將其預先編入索引,那麼這些網址需要導入靜態內容。否則,一些蜘蛛可能會工作,但其他人不會理解發生了什麼。 – 2011-04-30 16:43:53

+0

@Blub:它絕對可以與谷歌合作,但這裏有一個鏈接:http://code.google.com/web/ajaxcrawling/docs/getting-started.html – 2011-04-30 16:45:13

相關問題