
如何做搜尋引擎蜘蛛日誌分析
搜尋引擎蜘蛛日誌檔案是一種非常強大但未被站長充分利用的檔案,分析它可以獲取有關每個搜尋引擎如何爬取網站內容的相關資訊點,及檢視搜尋引擎蜘蛛在一段時間內的行為。
IP地址(15) | 伺服器名稱 | 所屬國家 |
---|---|---|
185.173.35.21 | 185.173.35.21.netsystemsresearch.com | DE |
92.118.161.25 | ? | GR |
92.118.161.1 | ? | GR |
92.118.160.33 | ? | GR |
92.118.160.5 | ? | GR |
92.118.161.13 | ? | GR |
92.118.161.49 | ? | GR |
92.118.160.61 | ? | GR |
92.118.161.17 | ? | GR |
185.173.35.49 | ? | DE |
74.125.214.104 | google-proxy-74-125-214-104.google.com | US |
74.125.214.108 | google-proxy-74-125-214-108.google.com | US |
66.102.9.136 | google-proxy-66-102-9-136.google.com | US |
66.249.81.8 | google-proxy-66-249-81-8.google.com | US |
66.102.9.14 | google-proxy-66-102-9-14.google.com | US |
66.102.9.17 | google-proxy-66-102-9-17.google.com | US |
66.102.9.233 | google-proxy-66-102-9-233.google.com | FR |
74.125.208.38 | google-proxy-74-125-208-38.google.com | US |
66.102.9.231 | google-proxy-66-102-9-231.google.com | FR |
66.249.81.144 | google-proxy-66-249-81-144.google.com | US |
IP地址(15) | 伺服器名稱 | 所屬國家 |
---|---|---|
74.125.214.104 | google-proxy-74-125-214-104.google.com | US |
74.125.214.108 | google-proxy-74-125-214-108.google.com | US |
66.102.9.136 | google-proxy-66-102-9-136.google.com | US |
66.249.81.8 | google-proxy-66-249-81-8.google.com | US |
66.102.9.14 | google-proxy-66-102-9-14.google.com | US |
66.102.9.17 | google-proxy-66-102-9-17.google.com | US |
66.102.9.233 | google-proxy-66-102-9-233.google.com | FR |
74.125.208.38 | google-proxy-74-125-208-38.google.com | US |
66.102.9.231 | google-proxy-66-102-9-231.google.com | FR |
66.249.81.144 | google-proxy-66-249-81-144.google.com | US |
IP地址(37) | 伺服器名稱 | 所屬國家 |
---|---|---|
196.52.43.75 | ? | US |
196.52.43.69 | ? | US |
196.52.43.67 | ? | US |
196.52.43.70 | ? | US |
196.52.43.72 | ? | US |
196.52.43.79 | ? | US |
196.52.43.71 | ? | US |
196.52.43.78 | ? | US |
196.52.43.80 | ? | US |
196.52.43.81 | ? | US |
169.54.244.78 | 4e.f4.36a9.ip4.static.sl-reverse.com | US |
196.52.43.112 | ? | US |
196.52.43.122 | ? | US |
168.1.128.35 | 23.80.01a8.ip4.static.sl-reverse.com | US |
196.52.43.123 | ? | US |
168.1.128.51 | 33.80.01a8.ip4.static.sl-reverse.com | US |
169.54.244.89 | 59.f4.36a9.ip4.static.sl-reverse.com | US |
196.52.43.95 | ? | US |
196.52.43.125 | 196.52.43.125.netsystemsresearch.com | US |
168.1.128.36 | 24.80.01a8.ip4.static.sl-reverse.com | US |
IP地址(37) | 伺服器名稱 | 所屬國家 |
---|---|---|
169.54.244.78 | 4e.f4.36a9.ip4.static.sl-reverse.com | US |
196.52.43.112 | ? | US |
196.52.43.122 | ? | US |
168.1.128.35 | 23.80.01a8.ip4.static.sl-reverse.com | US |
196.52.43.123 | ? | US |
168.1.128.51 | 33.80.01a8.ip4.static.sl-reverse.com | US |
169.54.244.89 | 59.f4.36a9.ip4.static.sl-reverse.com | US |
196.52.43.95 | ? | US |
196.52.43.125 | 196.52.43.125.netsystemsresearch.com | US |
168.1.128.36 | 24.80.01a8.ip4.static.sl-reverse.com | US |
對於未知蜘蛛或者爬蟲。它的用途對網站來說可能是好的,也可能是壞的,這取決於它是什麼。所以說,這需要站長進一步分析判斷這些尚不明確的爬蟲行為,再作最終決定。 但,根據以往的經驗,未宣告行為目的及未命名的蜘蛛爬蟲,通常都有不可告人的祕密,我們理應對其行為進行控制,比如攔截。
您可以通過在網站的 robots.txt 中設定使用者代理訪問規則來遮蔽 NetSystemsResearch crawler 或限制其訪問許可權。我們建議安裝 Spider Analyser 外掛,以檢查它是否真正遵循這些規則。
# robots.txt # 下列程式碼一般情況可以攔截該代理 User-agent: NetSystemsResearch crawler Disallow: /
您無需手動執行此操作,可通過我們的 Wordpress 外掛 Spider Analyser 來攔截不必要的蜘蛛或者爬蟲。