我有一個關於從網頁抓取數據的問題。有些網站對請求有限制,如何在這種情況下抓取網頁?有限制的網頁抓取
Q
有限制的網頁抓取
2
A
回答
3
爲簡單的網絡再殺你可以使用所謂的「零碎」流行的Python框架:
它使用CSS選擇器在HTML文件中選擇標籤。
對於具有一些安全解決方案的網頁,您可以使用tor通過獲取新會話來更改您的IP地址。
,但如果你的意思是,網站有一些象徵性的,你不能生成它們,你可以用「硒」模擬瀏覽器。
+0
我崇拜你!你救了我的生命真是太棒了...... <3 –
2
當您爬取網站時,您可能會發現由於您向網站提出太多請求而導致您限制了費率。例如,在我允許您發出其他請求之前,我的網站可能會阻止您幾秒鐘。這些限制可能會根據網站以及您提出請求的頻率和頻率發生變化。
解決這些限制的一種方法是在使用您的語言睡眠方法的請求之間等待一點點。在Python中,這是time.sleep(10)
。
如果您仍然被阻止,您可以嘗試使用增加的重試周期來迎合禁令時間。例如,您在某些請求中被阻止,因此請等待5秒鐘,然後重試(並阻止),等待10秒鐘,然後重試(並阻止),等待20秒鐘,然後重試(並阻止),等待40秒依此類推,直到你達到你想放棄的限制,或者服務器允許你成功完成請求。
相關問題
- 1. 網頁抓取/抓取的資源
- 2. 網頁抓取/抓取基於GWT的網頁
- 3. Beautifulsoup網頁抓取
- 4. BeautifulSoup網頁抓取
- 5. PHP網頁抓取
- 6. Spyder - 網頁抓取
- 7. 網頁抓取/屏幕抓取
- 8. 如何在連接數量有限時快速抓取網頁
- 9. Perl的網頁抓取
- 10. 在R的網頁抓取
- 11. Python的網頁抓取 - UnicodeEncodeError
- 12. python3中的網頁抓取
- 13. 的Python - 網頁抓取 - BeautifulSoup
- 14. 先進的網頁抓取
- 15. Python的SSL網頁抓取
- 16. C#網頁抓取的Javascript
- 17. 使用JSoup網頁抓取網頁
- 18. 使用wget抓取網站並限制已抓取鏈接的總數
- 19. 使用vba抓取網頁
- 20. 蟒蛇網頁抓取
- 21. 從網頁抓取文本
- 22. 刮屏|網頁抓取
- 23. Python - 網頁抓取問題
- 24. 優化網頁抓取
- 25. 在python中抓取網頁
- 26. 在Delphi中抓取網頁
- 27. 網頁抓取性能
- 28. Windows手機網頁抓取
- 29. 用bs4抓取網頁
- 30. 抓取大量網頁
如果你所要求的是「我要規避robots.txt文件,我該怎麼做呢?」答案是,「這種限制是有原因的:這是爲了讓網絡爬蟲不在他們不屬於的地方。」如果這不是你的問題,那麼你需要(而且應該)更清楚你想做什麼以及爲什麼。加入你所做過的研究以及你試圖解決問題的方法。 – JBH