ICC-Crawler
ICC-Crawler蜘蛛/爬蟲屬於其他型別,由Universal Communication Research Institute at NICT開發執行。您可以繼續閱讀下方資訊,以深入瞭解ICC-Crawler基本資訊,使用者代理和訪問控制等。
基本資訊
ICC-Crawler的基本資訊如下表。但部分不是很規範的蜘蛛和爬蟲,可能存在資訊不明的情況。
- 蜘蛛/爬蟲名稱
- ICC-Crawler
- 型別
- 其他
- 開發商
-
Universal Communication Research Institute at NICT
- 當前狀態
-
活動
使用者代理
關於ICC-Crawler蜘蛛或者爬蟲的使用者代理字串,IP地址和伺服器,所在地等資訊如下表格所示:
ICC-Crawler/2.0
-
ICC-Crawler/2.0
-
ICC-Crawler/2.0
-
ICC-Crawler/2.0
-
ICC-Crawler/2.0
-
ICC-Crawler
- 使用者代理字串
- ICC-Crawler/2.0 (Mozilla-compatible; ; http://www.nict.go.jp/en/ucri/plan/crawl.html)
- 首次出現
- 2016-06-30 09:12:41
- 最後出現
- 2016-07-09 13:21:45
- 遵循robots.txt
- 未知
- 來源
-
IP地址(1) |
伺服器名稱 |
所屬國家 |
202.180.34.186 |
gw.ucri.jgn-x.jp |
JP |
- 使用者代理字串
- ICC-Crawler/2.0 (Mozilla-compatible; ; http://www.nict.go.jp/en/univ-com/plan/crawl.html)
- 首次出現
- 2015-07-30 09:15:00
- 最後出現
- 2016-02-21 13:23:20
- 遵循robots.txt
- 未知
- 來源
-
IP地址(1) |
伺服器名稱 |
所屬國家 |
202.180.34.186 |
gw.ucri.jgn-x.jp |
JP |
- 使用者代理字串
- ICC-Crawler/2.0 (Mozilla-compatible; ; http://kc.nict.go.jp/project1/crawl.html)
- 首次出現
- 2009-06-29 22:38:52
- 最後出現
- 2015-02-21 23:13:45
- 遵循robots.txt
- 未知
- 來源
-
IP地址(1) |
伺服器名稱 |
所屬國家 |
202.180.34.186 |
gw.ucri.jgn-x.jp |
JP |
- 使用者代理字串
- ICC-Crawler/2.0 (Mozilla-compatible; ; http://kc.nict.go.jp/project1/crawl.html)
- 首次出現
- 2009-06-29 22:38:52
- 最後出現
- 2015-02-21 23:13:45
- 遵循robots.txt
- 未知
- 來源
-
IP地址(1) |
伺服器名稱 |
所屬國家 |
202.180.34.186 |
gw.ucri.jgn-x.jp |
JP |
- 使用者代理字串
- ICC-Crawler(Mozilla-compatible; ; http://kc.nict.go.jp/project1/crawl.html)
- 首次出現
- 2009-06-23 06:51:58
- 最後出現
- 2009-06-23 06:52:00
- 遵循robots.txt
- 未知
- 來源
-
IP地址(1) |
伺服器名稱 |
所屬國家 |
202.180.34.186 |
gw.ucri.jgn-x.jp |
JP |
訪問控制
瞭解如何控制ICC-Crawler訪問許可權,避免ICC-Crawler抓取行為不當。
是否攔截ICC-Crawler?
對於未知蜘蛛或者爬蟲。它的用途對網站來說可能是好的,也可能是壞的,這取決於它是什麼。所以說,這需要站長進一步分析判斷這些尚不明確的爬蟲行為,再作最終決定。
但,根據以往的經驗,未宣告行為目的及未命名的蜘蛛爬蟲,通常都有不可告人的祕密,我們理應對其行為進行控制,比如攔截。
通過Robots.txt攔截
您可以通過在網站的 robots.txt 中設定使用者代理訪問規則來遮蔽 ICC-Crawler 或限制其訪問許可權。我們建議安裝 Spider Analyser
外掛,以檢查它是否真正遵循這些規則。
# robots.txt
# 下列程式碼一般情況可以攔截該代理
User-agent: ICC-Crawler
Disallow: /
# robots.txt
# 下列程式碼一般情況可以攔截該代理
User-agent: ICC-Crawler
Disallow: /
您無需手動執行此操作,可通過我們的 Wordpress 外掛 Spider Analyser 來攔截不必要的蜘蛛或者爬蟲。