我正在使用電子商務系統,目前正在拋出數百個潛在的重複頁面URL,並試圖解決如何通過robots.txt隱藏它們,直到開發人員能夠對其進行排序那裏......出去。Robots.txt Disallow
我已經設法阻止其中的大部分,但卡住最後一個類型,所以問題是: 我有4個網址與下面的結構相同的產品頁面,我如何阻止第一個但不是其他。
www.example.com/ProductPage
www.example.com/category/ProductPage
www.example.com/category/subcategory/ProductPage
www.example.com/category/subcategory/ProductPage/assessorypage
到目前爲止,我能想出的唯一的想法是使用:
Disallow: /*?id=*/
這howeve r阻止一切...
編輯:我相信我可能已經找到了一種方法來設置robots.txt文件來禁止所有然後只允許我想要的特定路徑下面,然後...再次禁止任何之後的特定路徑。
任何人都知道這是否對SEO有負面影響,使用disallow> allow> disallow。
對不起,我應該提到,每一個產品在其URL的最後一個?ID =數字,因此上述不允許IVE的時刻試圖 – user2291081