lwp-useragent

    3熱度

    1回答

    我想建立一組表單參數供在HTTP POST中使用,但我不確定如何訪問/構建數據結構LWP :: UserAgent動態使用。 典型的示例代碼將此結構作爲請求傳遞。 my $response = $browser->post( 'http://example.com/postme', [ 'param1' => 'value1', 'param2' => 'va

    2熱度

    1回答

    我在通過Perl獲取表單結果時遇到了一些困難。我相信我已經成功地找到了表單並將我想要的值提交給適當的字段,但我不確定如何將響應對象轉化爲有用的東西(如果我將其打印出來,則顯示如下)。 HTTP::Request=HASH(0x895b8ac) 下面是相關代碼(假設$網址是正確的) my $ua = LWP::UserAgent->new; my $responce = $ua-

    2熱度

    2回答

    我有這樣的代碼: use strict; use LWP::UserAgent; use warnings; my $ua = new LWP::UserAgent(agent => 'Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US; rv:1.8.0.5) Gecko/20060719 Firefox/1.5.0.5'); $ua->prox

    8熱度

    3回答

    我有一個Perl腳本,它使用LWP::UserAgent下載一個網頁,然後使用正則表達式進行處理。問題在於網頁中普通的HTML部分沒有被返回到LWP :: UserAgent,因爲該網站認識到瀏覽器沒有安裝Flash,而是返回HTML提示我們下載Flash,而不是適當的HTML我們需要解析。 我怎樣才能讓LWP :: UserAgent的出現有安裝到我們從請求頁面的Web服務器閃存?我正在使用以下

    0熱度

    3回答

    要得到某個網站的響應,我必須給出一個確切的請求字符串,HTTP/1.1。我用telnet試了一下,它給了我想要的回覆(重定向,但我需要它)。 但是,當我試圖給相同的請求字符串HTTP::Request->parse(),我只是得到消息400 URL must be absolute。 我不確定是否這是網站或LWP給了我,因爲正如我所說,響應與telnet合作。 這是代碼: my $req = "G

    1熱度

    2回答

    我查了一下關於使用LWP的文章,但是我仍然輸了!在這個網站上,我們找到許多學校的名單;請參閱overview-page並遵循一些鏈接並獲得一些結果頁面: 我想解析使用LWP :: UserAgent的網站並進行解析:希望使用HTML :: TreeBuilder :: XPath或HTML :: TokeParser 目前我正在考慮選擇正確的取得請求! 我有一些與LWP :: Useragent有

    1熱度

    4回答

    我們有10,000個博客,我們希望每天檢查多個新博文。我想用最有效的方式使用Perl來完成這個示例代碼。 目前我們只是使用LWP::UserAgent來下載每個RSS提要,然後檢查生成的提要中的每個URL,對照一次一個已找到的URL的MySQL數據庫表。毋庸置疑,這不能很好地擴展,並且效率超低。 在此先感謝您的幫助&意見!

    2熱度

    2回答

    示例代碼: my $ua = LWP::UserAgent->new; my $response = $ua->get('http://example.com/file.zip'); if ($response->is_success) { # get the filehandle for $response->content # and process the data

    2熱度

    2回答

    我希望得到Perl問題的一些幫助。 我需要下載一個查詢結果的XML文件,解析結果,從XML文件中抓取下一個鏈接,重複下載&。 我已經能夠下載和分析的第一個結果集的罰款。 我抓住下一個URL,但似乎返回的結果不會改變。 I.e .:通過循環第二次,$res->content與第一次相同。因此,$url的值在第一次下載後永遠不會改變。 我懷疑這是一個範圍問題,但我似乎無法得到這個句柄。 use LWP

    1熱度

    1回答

    我有一個關於在LWP::UserAgent中使用mirror()的問題。在繼續執行腳本的其餘部分之前是否等待文件完成下載? (所以如果我有一個for循環,比如說10個url,它會嘗試一次下載所有10個,還是會下載第一個,然後等待直到完成,然後下載下一個等)?我在問,因爲我我正在下載許多文件,而且我不想讓服務器超載,並且很好奇我是否應該暫停。 如果它不等,有沒有一種快速的方法來確定文件是否完成下載,