1
A
回答
5
你看過Anemone寶石嗎?它專門爲蜘蛛網站創建。
你可以做這樣的事情抓住並打印網站的所有鏈接:
require 'anemone'
Anemone.crawl("http://www.example.com/") do |anemone|
anemone.focus_crawl { |page| puts page.links }
end
這是相當不錯的選項記錄的選擇,如果你想蜘蛛的整個側面,排除某些類型的鏈接或排除類似的東西的鏈接。
相關問題
- 1. 如何使用機械寶石獲取網站的所有鏈接?
- 2. 機械化不會連接到網站
- 3. Python機械化遍歷網站的所有網頁
- 4. 機械化:搜索所有形式
- 5. 處理所有鏈接,但外部的(紅寶石+機械化)
- 6. 用於檢索網站鏈接的API
- 7. Python的機械化登錄網站
- 8. Perl機械化查找所有鏈接數組循環問題
- 9. PHP使用loadXML和loadHTML檢索站點上的所有鏈接
- 10. 在使用DHTML,AJAX等的網站上使用Python機械化?
- 11. 點擊與機械化的xpath鏈接
- 12. 嵌套鏈接的Python機械化
- 13. 如何使用python和機械化從php頁面獲取所有鏈接
- 14. 如何使用Jsoup從網站上的鏈接檢索網址?
- 15. python的機械化可以使用localhost網站嗎?
- 16. HTTP 403錯誤檢索與機械化
- 17. 以下鏈接與機械化
- 18. Ruby機械化:遵循鏈接
- 19. python機械化關注鏈接失敗
- 20. 機械化跟隨元刷新鏈接
- 21. 更改蟒蛇機械化鏈接
- 22. Python機械化遵循圖像鏈接?
- 23. 使用機械化
- 24. Python下載文件時沒有機械化的直接鏈接
- 25. 檢查網站的鏈接使用PHP
- 26. 機械化使用2搜索刮?
- 27. 無法使用Python中的機械化連接到安全網站
- 28. Perl,使用機械化導航網頁
- 29. 使用機械化登錄到網頁
- 30. 登錄網站使用WWW重定向::機械化