我正在寫一個python腳本來分析一段文本並以JSON格式返回數據。我正在使用NLTK來分析數據。基本上,這是我的流程:不支持NLTK文件大小的Lambda
創建一個端點(API網關) - >調用我的lambda函數 - >返回所需數據的JSON。
我寫我的劇本,部署到拉姆達,但我遇到了這個問題:找不到
資源\ u001b [93mpunkt \ u001b [0米。請使用NLTK 下載來獲得資源:
\ u001b [31米>>>進口NLTK nltk.download( 'PUNKT')\ u001b [搜查0米
: - 「/家庭/ sbx_user1058/nltk_data ' - '在/ usr /共享/ nltk_data' - '在/ usr/local/share下/ nltk_data' - '/ usr/lib目錄/ nltk_data' - '在/ usr/local/lib目錄/ nltk_data' - '/ 'var/lang/nltk_data' - '/ var/lang/lib/nltk_data'
即使下載'punkt',我的劇本仍然給了我同樣的錯誤。我試過的解決方案在這裏:
Optimizing python script extracting and processing large data files
但問題是,在nltk_data文件夾是巨大的,而拉姆達的大小限制。
我該如何解決這個問題? 或者我還可以在哪裏使用我的腳本並仍然集成API調用?
我使用無服務器來部署我的Python腳本。
您的文件夾有多大? –
1.4G,這是由於nltk庫和standford庫。關於如何或在哪裏可以託管代碼的任何想法? – noor
你不需要下載完整的nltk,如果你只需要'punkt'爲什麼不下載? –