2011-01-23 34 views
1

這是個問題。有沒有一種方法比standart sitemap.xml更有效[添加/強制重新抓取/刪除],即在谷歌中管理您網站的索引條目?有沒有比網站地圖更高效的方法來添加/強制重新抓取/刪除您的網站在谷歌的索引條目?

我記得幾年前,我正在閱讀一篇不知名博主的文章,他說當他在他的網站上寫新聞時,新聞的URL輸入將立即出現在谷歌的搜索結果中。我認爲他提到了一些特別的東西。我不記得究竟是什麼..一些由Google自己提供的自動重新爬行系統?但是,我不確定。所以我問,你是否認爲我自己錯了,除了sitemap.xml以外沒有其他方式管理索引內容?我只需要確定這一點。

謝謝。

+0

這可能屬於http://webmasters.stackexchange.com。 – cHao 2011-01-23 10:25:37

+0

雖然,東南亞的谷歌是強大的參考。谷歌「比網站地圖更有效率」,看看會發生什麼。 :) – cHao 2011-01-23 10:28:00

+0

啊..:(我想你是對的 – PatlaDJ 2011-01-23 10:28:24

回答

1

我不認爲你會發現你要尋找的那個神奇的「銀彈」的答案,但這裏的一些額外的信息和提示,可以幫助:爬行的

  • 深度和爬行的速度直接受PageRank影響(它影響的少數幾件事之一)。因此,增加您網站的主頁和內部網頁的反向鏈接數量和質量將有助於您。
  • QDF - 這種Google算法因子「Query Deserves Freshness」確實具有真正的影響力,也是Google Caffeine基礎架構項目背後的核心原因之一,可以更快地找到新內容。這是像SE這樣的博客和網站做得很好的主要原因之一 - 因爲內容是「新鮮的」並且與查詢匹配。
  • XML站點地圖幫助索引,但他們不會導致更好的排名。使用它們來幫助搜索機器人查找您的架構中很深的內容。
  • 特別是通過博客來監控網站變化(如ping-o-matic)的服務可以真正幫助推送新內容的通知 - 這還可以確保搜索引擎立即意識到它。
  • 抓取預算 - 注意在網站的某些部分浪費搜索引擎的時間,這些部分不會改變或不值得在索引中找到位置 - 使用robots.txt和robots meta標籤可以將搜索漫遊器您網站的不同部分(謹慎使用,以免刪除高價值內容)。

許多這類主題的在線覆蓋,但也有像導航結構,內部鏈接,網站架構等其他內在的東西,也有助於絲毫不亞於任何「貓膩」或「設備」。

0

從良好的網站到您的網站獲取許多鏈接將使Google「蜘蛛」更快地到達您的網站。

來自Twitter等社交網站的鏈接也可以幫助抓取者訪問您的網站(儘管Twitter鏈接不通過「鏈接果汁」 - 蜘蛛仍然通過它們)。

最後一件事,定期更新您的內容,將內容視爲「Google Spider Food」。如果蜘蛛會來到你的地盤,並且不會找到新食物,他們不會很快再回來,如果他們每次來的時候都有新食物,他們會來很多。例如,文章目錄,每天得到索引數次。