
如何做搜尋引擎蜘蛛日誌分析
搜尋引擎蜘蛛日誌檔案是一種非常強大但未被站長充分利用的檔案,分析它可以獲取有關每個搜尋引擎如何爬取網站內容的相關資訊點,及檢視搜尋引擎蜘蛛在一段時間內的行為。
IP地址(47) | 伺服器名稱 | 所屬國家 |
---|---|---|
95.142.199.184 | srv184-199.vkontakte.ru | RU |
195.211.23.209 | snipster25.go.mail.ru | RU |
195.211.23.224 | snipster40.go.mail.ru | RU |
195.211.23.208 | snipster24.go.mail.ru | RU |
195.211.23.207 | snipster23.go.mail.ru | RU |
195.211.23.221 | snipster37.go.mail.ru | RU |
195.211.23.206 | snipster22.go.mail.ru | RU |
195.211.23.223 | snipster39.go.mail.ru | RU |
195.211.23.220 | snipster36.go.mail.ru | RU |
195.211.23.213 | snipster29.go.mail.ru | RU |
195.211.23.222 | snipster38.go.mail.ru | RU |
95.142.199.183 | srv183-199.vkontakte.ru | RU |
195.211.23.210 | snipster26.go.mail.ru | RU |
195.211.23.211 | snipster27.go.mail.ru | RU |
通常不需要。除非您不希望資訊流網站或者APP對您的網站內容進行抓取,網站也不提供Feed訂閱服務,則可以考慮攔截此型別爬蟲。
您可以通過在網站的 robots.txt 中設定使用者代理訪問規則來遮蔽 vkShare 或限制其訪問許可權。我們建議安裝 Spider Analyser 外掛,以檢查它是否真正遵循這些規則。
# robots.txt # 下列程式碼一般情況可以攔截該代理 User-agent: vkShare Disallow: /
您無需手動執行此操作,可通過我們的 Wordpress 外掛 Spider Analyser 來攔截不必要的蜘蛛或者爬蟲。