如何做搜索引擎蜘蛛日志分析
搜索引擎蜘蛛日志文件是一种非常强大但未被站长充分利用的文件,分析它可以获取有关每个搜索引擎如何爬取网站内容的相关信息点,及查看搜索引擎蜘蛛在一段时间内的行为。
| IP地址(43) | 服务器名称 | 所属国家 |
|---|---|---|
| 200.6.48.54 | 200.6.48.54 | BR |
| 200.6.48.74 | 200.6.48.74 | BR |
| 87.255.194.135 | 87.255.194.135 | KZ |
| 45.166.100.48 | 45.166.100.48 | MX |
| 102.131.60.115 | 102.131.60.115 | ZA |
| 185.85.239.13 | 13-164.86.185.ip.idealhosting.net.tr | TR |
| 173.231.185.164 | 173.231.185.164 | US |
| 72.46.130.218 | test.reverse.ptr | US |
| 5.189.172.158 | ip-158-172-189-5.static.contabo.net | DE |
| 27.147.136.166 | 136.166.cetus.link3.net | BD |
可以考虑拦截。。爬虫通常会下载公开的互联网内容,这些内容默认情况下可以免费访问。不过,如果你不希望你的内容被用于未经授权的目的,你应该拦截它们。
您可以通过在网站的 robots.txt 中设置用户代理访问规则来屏蔽 xfa1 或限制其访问权限。我们建议安装 Spider Analyser 插件,以检查它是否真正遵循这些规则。
# robots.txt # 下列代码一般情况可以拦截该代理 User-agent: xfa1 Disallow: /
您无需手动执行此操作,可通过我们的 Wordpress 插件 Spider Analyser 来拦截不必要的蜘蛛或者爬虫。
(工作日 10:00 - 18:30 为您服务)