wikipedia-api

    0熱度

    1回答

    我有一個關於維基媒體/維基百科API的簡單查詢。 我必須從「revids」列表中獲取所做的更改。我能夠獲取一批「revids」的XML內容,但我未能僅提取已更改的文本。 API是否提供任何方式來只提取更改的句子?如果沒有任何可以完成這項工作的外部腳本/模塊? 查詢獲取的修訂細節:https://en.wikipedia.org/w/api.php?action=query&prop=info|re

    -1熱度

    1回答

    維基百科頁面 我希望得到一個維基百科的文章,在「又見」一節中的所有鏈接,但蟒蛇維基API(Wikipedia documentation)不提供這些信息。即使我使用「頁面」功能獲得一個網頁的全部內容以「另見」部分中提取,這部分通常是空的! (如果你使用瀏覽器瀏覽該網頁,它不會是空的!)。 ​​ 所以,我認爲,對於獲取這些信息的唯一方法是解析HTML頁面。任何意見,幫助我提取這些信息,而不解析HTM

    1熱度

    1回答

    我知道Special:LongPages,我見過https://en.wikipedia.org/w/api.php和https://en.wikipedia.org/api/rest_v1/。 有沒有辦法從其中一個API獲取長文章(或按大小排序的文章)?

    0熱度

    3回答

    如果我運行此: var url="https://en.wikipedia.org/w/api.php?format=json&action=query&prop=categories&titles=Victory_Tests&callback=?"; $.getJSON(url,function(data){ $.each(data, function(i, item) {

    0熱度

    2回答

    我使用維基百科API獲取信息框數據。我想從這個信息框數據解析website url。我嘗試使用mwparserfromhell解析網站網址,但不同的關鍵字有不同的格式。 這裏有幾個模式的網站 - url = <!-- {{URL|www.example.com}} --> | url = [https://www.TheGuardian.com/ TheGuardian.com] |

    0熱度

    1回答

    我只有通過自己的pageid上市的維基百科文章的數據轉儲,並且我希望通過命名空間來過濾。這將是比較容易編寫一些Python(可能使用請求模塊)來調用MediaWiki Query API,查詢使用pageids PARAM同時命名空間50。 但是,我打算嘗試使用Pywikibot,因爲查詢API的最佳實踐和錯誤處理可能會融入到Pywikibot中,並且如果我犯了一個邏輯錯誤並且過度使用,查詢API

    0熱度

    1回答

    我想用api在mediawiki上上傳視頻。有沒有上傳視頻?如果可能的話,給我示例代碼和技術我,我如何做到這一點。謝謝。

    1熱度

    1回答

    我想在node.js中使用Wikipedia API。只知道維基百科API的SVG file只知道那些所有圖像的類別,這是可能的嗎?

    -1熱度

    3回答

    我需要從JSON響應中提取圖像的URL(也許我可以把它放在一個變量中)。 我讀this page on the MediaWiki API help 我按照這個例子來獲取圖像的頁面上的信息: https://commons.wikimedia.org/w/api.php?action=query&prop=pageimages&titles=Albert%20Einstein&pithumbsiz

    0熱度

    3回答

    我需要檢查維基百科文章是否特色或不。如何使用Wikipedia API做到這一點? 如果這不支持,是否有維基百科API函數來獲取維基百科特色文章的列表?