2012-12-16 107 views
0

我需要一些方法來複制和保存使用PHP或Linux命令行「離線使用」的網站。就像保存與瀏覽器的鏈接一樣,它會重寫圖像標籤並下載它們。本地保存一個URL的內容與包括圖像的PHP

問題是當我找到問題的解決方案時,我通常會將鏈接保存在某處。隨之而來的問題是鏈接有時會死亡,所以我無法再訪問它們。

所以我在想的是創建一個工具,爲我保存頁面,在我的服務器上,並使用該網址。

我知道如何使用file_get_contents來獲取文本/ html,並且大部分時間都適用,但是我認爲自從我創建一個工具以後,它也下載了圖片。我想用瀏覽器保存並上傳它,但我想要一個更乾淨的方式來做到這一點。

如果有人知道一些圖書館或者是那樣做,請幫助我。

謝謝!

回答

1

你應該看看cURL庫,這可能是你正在尋找的。

A basic example也在文檔中指定。

+0

不是我想要的 – Nikos

1

如果您的網絡服務器上有可用的選項,您可能需要檢查wget,因爲它有一些非常有用的選項。其中之一是可以通過鏈接翻譯製作網站的離線副本,以便網站可以在本地使用。

wget --domains example.com --recursive --html-extension --page-requisites --convert-links 

如果你想創建一個子文件夾的脫機副本(可以說example.com/test/),那麼爲了防止從wget的報廢父文件夾添加--no-parent

您可以通過bash腳本本身運行報廢過程,也可以通過PHP與exec()進行調用。

0

您可以考慮使用此:http://www.httrack.com/

+0

如果我涉及的prosess中間的窗戶,我可以使用瀏覽器 – Nikos

+0

這更是一個比一個答案評論。 – hakre

相關問題