如果Blogger在mydomain.com和mydomain.blogspot.com上同時提供網站,並且這兩個網站的權限都相同,但具有相同的robots.txt文件,是否有某種方式要配置robots.txt文件,以便僅阻止對網站的mydomain.blogspot.com版本進行索引?有沒有其他辦法可以達到同樣的結果?使用robots.txt阻止一個域
1
A
回答
1
您無法使用robots.txt執行此操作,該文件只能包含文件夾/子文件夾,而不是域/子域的說明。如果可能,您可能需要爲mydomain.com和mydomain.example.com創建單獨的robots.txt文件。
另一種解決方案是將永久301從一個域重定向到另一個域。這對Blogger來說不可能嗎?
0
要做的最好的事情是確保mydomain.blogspot.com被重定向到您的自定義域mydomain.com。重定向將需要永久重定向(301),並可通過Blogger上託管的博客實現。 這裏這應該幫助您通過:
http://support.google.com/blogger/bin/static.py?hl=en&ts=1233381&page=ts.cs
,這裏是一個又一個,但Blogger的以前的樣子。 http://www.blogbloke.com/redirect-you-blogger-custom-domain-to/
我建議您使用第一個鏈接,並按照一步一步的程序!
相關問題
- 1. 使用robots.txt來阻止/?param = X
- 2. robots.txt阻止的網址
- 3. 使用模式來阻止robots.txt中的一些動態網址
- 4. 如何使用robots.txt阻止用於URL縮短服務的子域名?
- 5. 如何創建一個robots.txt文件,阻止所有,但根
- 6. 使用robots.txt禁止或禁止子域名
- 7. robots.txt的多個域
- 8. robots.txt的htaccess的阻止谷歌
- 9. Sitemap包含被robots.txt阻止的網址
- 10. Robots.txt阻止訪問所有https://頁面
- 11. XHR到同一個域被阻止
- 12. Robots.txt與一個網站,但兩個域
- 13. 使用robots.txt阻止搜索引擎的url 100s
- 14. 我可以使用robots.txt阻止某些網址參數嗎?
- 15. 阻止作用域輸出
- 16. 使用AWS S3阻止子域名
- 17. 使用PowerShell阻止IP /域名
- 18. robots.txt能否阻止目錄中的一種文件類型?
- 19. 如何禁止使用robots.txt爲所有子域指定索引?
- 20. 阻止文件的robots.txt與[可能]多個文件擴展名
- 21. Robots.txt,禁止使用多語言URL
- 22. 使用「禁止:/ *?」在robots.txt文件
- 23. 阻止端口子域
- 24. 網站區域被阻止?
- 25. 跨域請求被阻止
- 26. .htaccess文件,阻止IDN域
- 27. 跨域請求被阻止
- 28. 阻止子域上的SSL
- 29. PHP表單阻止域名
- 30. 在apache中阻止域名*