任何人都可以告訴我,如果curl無法在PHP中抓取,那麼哪種方法將用於抓取?PHP爬行方法
Q
PHP爬行方法
0
A
回答
0
如果您指的是創建一個蜘蛛來抓取整個遠程站點像wget這樣的工具的方式,我不相信cURL具有這種能力。 cURL將用於發出請求並下載每個頁面,但您必須在PHP腳本中創建邏輯來解析頁面內容,提取鏈接並創建要爬網的URL列表。 cURL不會爲你做那部分。
0
捲曲會:
- 跟隨重定向(設置爲選項)
- Store內容( - > curl_exec())
這都是你需要抓取。 中常用的方法,以實例從 http://ua2.php.net/manual/en/function.curl-exec.php
相關問題
- 1. 的Web爬行使用PHP
- 2. 無法從really.com爬行
- 3. cookie爬行者的想法?
- 4. 無法啓動Nutch爬行
- 5. 爬行
- 6. php中的圖片爬行器
- 7. 關於谷歌爬行PHP頁面
- 8. 使用PHP和XPATH進行爬取
- 9. 通過PHP爬蟲進行IP交換
- 10. 爬行選項標籤與Php
- 11. PHP網絡爬蟲
- 12. php爬蟲檢測
- 13. MOSS 2007爬行
- 14. Scrapy CSV爬行
- 15. 爬行itunes.apple.com
- 16. 爬行屬性
- 17. 爬行amazon.com
- 18. 爬行使用CasperJS
- 19. 爬行WP7市場
- 20. Scrapy爬行0頁
- 21. 搜索爬行「Bot」?
- 22. Scrapy條件爬行
- 23. Scrapy不是爬行
- 24. 爬行使用Python
- 25. 反爬行器 - Python
- 26. 在pdf內爬行
- 27. nutch爬行路徑
- 28. scrapy加速爬行
- 29. 谷歌爬行AJAX
- 30. Jsessionid干擾爬行
請到通過http://stackoverflow.com/search?q=crawl+php和http://stackoverflow.com/search?q=crawler+php第一 – Gordon
'如果可以瀏覽它,curl'就能夠抓取頁面。你遇到了什麼錯誤? –