2017-03-18 68 views
0
import tweepy 
import csv #Import csv 

CONSUMER_KEY = '' 
CONSUMER_SECRET = '' 
ACCESS_KEY = '' 
ACCESS_SECRET = '' 

auth = tweepy.auth.OAuthHandler(CONSUMER_KEY, CONSUMER_SECRET) 
auth.set_access_token(ACCESS_KEY, ACCESS_SECRET) 

api = tweepy.API(auth, wait_on_rate_limit=False) 
# Open/Create a file to append data 
csvFile = open('BB.csv', 'a') 
#Use csv Writer 
csvWriter = csv.writer(csvFile) 
#max_tweets = 100 

for tweet in tweepy.Cursor(api.search, 
       q="bondai beach", 
       lang="en").items(): 
#Write a row to the csv file/ I use encode utf-8 
csvWriter.writerow([tweet.text.encode('utf-8')]) 
print(tweet.text) 
csvFile.close() 

我正在使用Tweepy導入Twitter的數據成Python的差異。有沒有辦法解決從網頁中檢索到的結果數量與由api檢索的數量之間的差異?例如,如果您搜索bondai海灘,您將在網頁上獲得大量結果,但是如果使用API​​加載它,則只會有3個結果。更奇怪的是,根據關鍵字,可以從API中檢索到很多結果。使用API​​來檢索埃菲爾鐵塔的數據會產生大量的結果,直到我強制停止代碼時,它幾乎超過了1000。以上是我的代碼。並在Twitter上的網頁搜索結果的數量導致tweepy

回答

0

有沒有辦法解決從網頁檢索到的結果數量與api檢索的數量之間的差異?

Twitter的內部serach API可能與他們的公共API不同,所以不幸的是,這隻有在您直接劫持他們的搜索API(這可能違反他們的服務條款)時纔可能。

更爲奇怪的是,根據關鍵字,可以從API中檢索到很多結果。

我不確定這有什麼奇怪的,但它可能是一個好主意,實現最大或某種分頁實現。

相關問題