0
我通過捲曲API請求中提取數據概述如下:PHP API要求加減
<?php
$username = "xxxxyyyyxxxxyyyy";
$password = "xxxxyyyyxxxxyyyyxxxxyyyyxxxxyyyy";
$remote_url = 'https://xxxxxxxxx.com/orders.json';
for ($pages = 0; $pages <= 1420; $pages++)
{
$headers = array();
$headers[] = "Authorization: Basic " . base64_encode("$username:$password");
$headers[] = "X-Page:" . $pages;
$opts = array(
'http'=>array(
'method'=>"GET",
'header' => $headers
)
);
$context = stream_context_create($opts);
$file1 = file_get_contents($remote_url, false, $context);
echo "<br><br>Starting page number $pages pull...";
$data = json_decode($file1, true);
foreach($data as $innerArray) {
/******** WRITE DATA TO DATABASE ********/
的問題是,有超過1400頁,這使得該過程非常緩慢。有沒有辦法讓這個過程更快,例如將1,400頁分成可以同時運行的查詢塊?
感謝,
馬特
你可以在命令行上使用wget或curl嗎?只是爲了獲得數據?您還應該檢查使用切片機()的瓶頸位置。 – user2182349