ICC-Crawler
ICC-Crawler蜘蛛/爬虫属于其他类型,由Universal Communication Research Institute at NICT开发运行。您可以继续阅读下方信息,以深入了解ICC-Crawler基本信息,用户代理和访问控制等。
基本信息
ICC-Crawler的基本信息如下表。但部分不是很规范的蜘蛛和爬虫,可能存在信息不明的情况。
- 蜘蛛/爬虫名称
- ICC-Crawler
- 类型
- 其他
- 开发商
-
Universal Communication Research Institute at NICT
- 当前状态
-
活动
用户代理
关于ICC-Crawler蜘蛛或者爬虫的用户代理字符串,IP地址和服务器,所在地等信息如下表格所示:
ICC-Crawler/2.0
-
ICC-Crawler/2.0
-
ICC-Crawler/2.0
-
ICC-Crawler/2.0
-
ICC-Crawler/2.0
-
ICC-Crawler
- 用户代理字符串
- ICC-Crawler/2.0 (Mozilla-compatible; ; http://www.nict.go.jp/en/ucri/plan/crawl.html)
- 首次出现
- 2016-06-30 09:12:41
- 最后出现
- 2016-07-09 13:21:45
- 遵循robots.txt
- 未知
- 来源
-
IP地址(1) |
服务器名称 |
所属国家 |
202.180.34.186 |
gw.ucri.jgn-x.jp |
JP |
- 用户代理字符串
- ICC-Crawler/2.0 (Mozilla-compatible; ; http://www.nict.go.jp/en/univ-com/plan/crawl.html)
- 首次出现
- 2015-07-30 09:15:00
- 最后出现
- 2016-02-21 13:23:20
- 遵循robots.txt
- 未知
- 来源
-
IP地址(1) |
服务器名称 |
所属国家 |
202.180.34.186 |
gw.ucri.jgn-x.jp |
JP |
- 用户代理字符串
- ICC-Crawler/2.0 (Mozilla-compatible; ; http://kc.nict.go.jp/project1/crawl.html)
- 首次出现
- 2009-06-29 22:38:52
- 最后出现
- 2015-02-21 23:13:45
- 遵循robots.txt
- 未知
- 来源
-
IP地址(1) |
服务器名称 |
所属国家 |
202.180.34.186 |
gw.ucri.jgn-x.jp |
JP |
- 用户代理字符串
- ICC-Crawler/2.0 (Mozilla-compatible; ; http://kc.nict.go.jp/project1/crawl.html)
- 首次出现
- 2009-06-29 22:38:52
- 最后出现
- 2015-02-21 23:13:45
- 遵循robots.txt
- 未知
- 来源
-
IP地址(1) |
服务器名称 |
所属国家 |
202.180.34.186 |
gw.ucri.jgn-x.jp |
JP |
- 用户代理字符串
- ICC-Crawler(Mozilla-compatible; ; http://kc.nict.go.jp/project1/crawl.html)
- 首次出现
- 2009-06-23 06:51:58
- 最后出现
- 2009-06-23 06:52:00
- 遵循robots.txt
- 未知
- 来源
-
IP地址(1) |
服务器名称 |
所属国家 |
202.180.34.186 |
gw.ucri.jgn-x.jp |
JP |
访问控制
了解如何控制ICC-Crawler访问权限,避免ICC-Crawler抓取行为不当。
是否拦截ICC-Crawler?
对于未知蜘蛛或者爬虫。它的用途对网站来说可能是好的,也可能是坏的,这取决于它是什么。所以说,这需要站长进一步分析判断这些尚不明确的爬虫行为,再作最终决定。
但,根据以往的经验,未声明行为目的及未命名的蜘蛛爬虫,通常都有不可告人的秘密,我们理应对其行为进行控制,比如拦截。
通过Robots.txt拦截
您可以通过在网站的 robots.txt 中设置用户代理访问规则来屏蔽 ICC-Crawler 或限制其访问权限。我们建议安装 Spider Analyser
插件,以检查它是否真正遵循这些规则。
# robots.txt
# 下列代码一般情况可以拦截该代理
User-agent: ICC-Crawler
Disallow: /
您无需手动执行此操作,可通过我们的 Wordpress 插件 Spider Analyser 来拦截不必要的蜘蛛或者爬虫。