如何做搜索引擎蜘蛛日志分析
搜索引擎蜘蛛日志文件是一种非常强大但未被站长充分利用的文件,分析它可以获取有关每个搜索引擎如何爬取网站内容的相关信息点,及查看搜索引擎蜘蛛在一段时间内的行为。
| IP地址(79) | 服务器名称 | 所属国家 |
|---|---|---|
| 151.236.30.26 | ? | ? |
| 185.78.64.120 | host120-64-78-185.static.rackone.it | IT |
| 216.81.192.36 | dhcpclient36.co.marshall.ia.us | US |
| 82.113.131.207 | edinburgh.wonderproxy.com | GB |
| 191.96.71.188 | ? | BR |
| 217.12.203.28 | sofia.wonderproxy.com | BG |
| 120.136.55.202 | ip-120-136-55-202.solarix.net.nz | NZ |
| 45.248.78.81 | ? | AU |
| 208.81.3.194 | wonderproxy.ywg1.les.net | CA |
| 169.255.56.115 | accra.wonderproxy.com | GH |
| 154.127.57.223 | ? | ZA |
| 200.25.45.70 | ? | PE |
| 143.202.162.119 | ? | CR |
| 72.52.197.209 | ? | US |
| 192.71.249.142 | 142-249-71-192.static.edis.at | BE |
| 46.17.215.218 | ? | GB |
| 128.65.193.146 | os-vps64.infomaniak.ch | CH |
| 185.230.124.82 | ? | ES |
| 5.200.23.23 | hosted-by.skdedicated.com | NL |
| 51.178.185.239 | ? | ? |
| 139.59.2.71 | bangalore.wonderproxy.com | IN |
| 41.106.3.134 | ? | DZ |
| 120.76.216.74 | ? | CN |
| 217.29.128.124 | 217-29-128-124.as37349.aptus.co.tz | TZ |
| 169.255.57.207 | ? | NG |
| 186.250.242.166 | ? | BR |
| 179.50.90.156 | ? | CO |
| 200.25.22.72 | ? | CL |
| 203.76.244.236 | ? | JP |
| 78.108.170.38 | rev-78-108-170-38.terra.net.lb | LB |
| 103.47.154.133 | ? | MY |
| 201.131.125.147 | 201-131-125-147.static.hostdime.com | MX |
| 198.199.98.122 | sanfrancisco.wonderproxy.com | US |
| 190.14.38.128 | ? | PA |
| 104.156.70.25 | ip025.serveur.kenotronix.com | CA |
| 92.39.246.87 | vps2021-cloud.sd-france.net | FR |
| 185.162.126.195 | ? | IL |
| 185.181.229.202 | no-rdns.innovahosting.net | MD |
| 217.29.128.226 | 217-29-128-226.as37349.aptus.co.tz | TZ |
| 94.242.57.99 | ? | RU |
| 91.132.93.69 | ? | AE |
| 217.12.199.149 | kharkivwonderproxy.com | UA |
| 78.129.252.136 | ? | GB |
| 102.130.48.159 | user-102-130-48-159.los01.ng.misaka.io | NG |
这取决于你。数字存档通常是为了保存历史记录。如果你出于某种原因不想成为历史记录的一部分,你可以拦截这类型的蜘蛛爬虫。
您可以通过在网站的 robots.txt 中设置用户代理访问规则来屏蔽 TestLocally 或限制其访问权限。我们建议安装 Spider Analyser 插件,以检查它是否真正遵循这些规则。
# robots.txt # 下列代码一般情况可以拦截该代理 User-agent: TestLocally Disallow: /
您无需手动执行此操作,可通过我们的 Wordpress 插件 Spider Analyser 来拦截不必要的蜘蛛或者爬虫。
(工作日 10:00 - 18:30 为您服务)