umich.edu crawler
umich.edu crawler蜘蛛/爬蟲屬於其他型別,由University of Michigan開發執行。您可以繼續閱讀下方資訊,以深入瞭解umich.edu crawler基本資訊,使用者代理和訪問控制等。
基本資訊
umich.edu crawler的基本資訊如下表。但部分不是很規範的蜘蛛和爬蟲,可能存在資訊不明的情況。
- 蜘蛛/爬蟲名稱
- umich.edu crawler
- 型別
- 其他
- 開發商
-
University of Michigan
- 當前狀態
-
活動
使用者代理
關於umich.edu crawler蜘蛛或者爬蟲的使用者代理字串,IP地址和伺服器,所在地等資訊如下表格所示:
LinuxGetURL/2.0
-
LinuxGetURL/2.0
-
LinuxGetURL/2.0
-
LinuxGetURL/2.0
-
zacklt_umich.edu
-
GetUrl/1.0
-
fantastic_search_engine_crawler/2.0
-
donwload_html/2.0
-
LinuxGetURL/2.0
-
LinuxGetURL/2.0
- 使用者代理字串
- LinuxGetUrl/2.0 imfeelinglucky@umich.edu (Linux)
- 首次出現
- 2021-04-25 14:11:44
- 最後出現
- 2021-04-25 14:11:44
- 遵循robots.txt
- 未知
- 來源
-
IP地址(1) |
伺服器名稱 |
所屬國家 |
34.69.119.118 |
? |
US |
- 使用者代理字串
- LinuxGetUrl/2.0 eecs440-bradmen(at)umich.edu (Linux)
- 首次出現
- 2021-04-20 23:11:31
- 最後出現
- 2021-04-20 23:11:31
- 遵循robots.txt
- 未知
- 來源
-
IP地址(1) |
伺服器名稱 |
所屬國家 |
35.239.251.238 |
? |
US |
- 使用者代理字串
- LinuxGetUrl/2.0 usualprogrammers@umich.edu (Linux)
- 首次出現
- 2021-04-16 11:13:16
- 最後出現
- 2021-04-16 11:13:20
- 遵循robots.txt
- 未知
- 來源
-
IP地址(1) |
伺服器名稱 |
所屬國家 |
104.197.37.30 |
? |
US |
- 使用者代理字串
- Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.190 Safari/537.36 zacklt@umich.edu
- 首次出現
- 2021-04-08 00:29:47
- 最後出現
- 2021-04-12 20:29:59
- 遵循robots.txt
- 未知
- 來源
-
IP地址(2) |
伺服器名稱 |
所屬國家 |
35.209.127.129 |
? |
US |
35.209.72.43 |
? |
US |
- 使用者代理字串
- GetUrl/1.0 wdestiny@umich.edu (Linux)
- 首次出現
- 2021-03-25 21:22:03
- 最後出現
- 2021-04-11 02:22:35
- 遵循robots.txt
- 未知
- 來源
-
IP地址(4) |
伺服器名稱 |
所屬國家 |
18.207.197.159 |
ec2-18-207-197-159.compute-1.amazonaws.com |
US |
54.210.90.82 |
ec2-54-210-90-82.compute-1.amazonaws.com |
US |
143.198.113.63 |
? |
US |
54.224.232.67 |
ec2-54-224-232-67.compute-1.amazonaws.com |
US |
- 使用者代理字串
- fantastic_search_engine_crawler/2.0 (Linux) fantastic-crawler@umich.edu
- 首次出現
- 2019-12-09 13:49:26
- 最後出現
- 2019-12-11 18:37:31
- 遵循robots.txt
- 未知
- 來源
-
IP地址(5) |
伺服器名稱 |
所屬國家 |
35.245.127.248 |
? |
US |
35.245.177.81 |
? |
US |
35.245.219.67 |
? |
US |
35.245.229.30 |
? |
US |
34.74.245.15 |
15.245.74.34.bc.googleusercontent.com |
US |
- 使用者代理字串
- donwload_html/2.0 (Linux) aniruddh@umich.edu
- 首次出現
- 2019-11-30 07:29:11
- 最後出現
- 2019-12-06 10:06:48
- 遵循robots.txt
- 未知
- 來源
-
IP地址(6) |
伺服器名稱 |
所屬國家 |
35.236.197.52 |
? |
US |
35.221.57.68 |
? |
US |
35.245.61.147 |
147.61.245.35.bc.googleusercontent.com |
US |
35.231.133.15 |
15.133.231.35.bc.googleusercontent.com |
US |
35.245.81.149 |
149.81.245.35.bc.googleusercontent.com |
US |
40.114.81.229 |
40.114.81.229 |
US |
- 使用者代理字串
- LinuxGetURL/2.0 noahtutt@umich.edu (Linux)
- 首次出現
- 2019-11-23 06:01:12
- 最後出現
- 2019-11-23 06:01:12
- 遵循robots.txt
- 否
- 來源
-
IP地址(1) |
伺服器名稱 |
所屬國家 |
35.193.29.194 |
? |
US |
35.190.139.151 |
? |
US |
104.154.248.162 |
? |
US |
104.196.174.165 |
? |
US |
34.70.87.7 |
? |
US |
35.237.30.206 |
? |
US |
35.196.139.49 |
? |
US |
35.239.38.139 |
? |
US |
34.73.244.187 |
? |
US |
35.222.87.221 |
? |
US |
34.69.119.118 |
? |
US |
35.239.251.238 |
? |
US |
104.197.37.30 |
? |
US |
35.243.207.242 |
242.207.243.35.bc.googleusercontent.com |
US |
- 使用者代理字串
- LinuxGetURL/2.0 noahtutt@umich.edu (Linux)
- 首次出現
- 2019-11-23 06:01:12
- 最後出現
- 2019-11-23 06:01:12
- 遵循robots.txt
- 未知
- 來源
-
IP地址(1) |
伺服器名稱 |
所屬國家 |
35.243.207.242 |
242.207.243.35.bc.googleusercontent.com |
US |
訪問控制
瞭解如何控制umich.edu crawler訪問許可權,避免umich.edu crawler抓取行為不當。
是否攔截umich.edu crawler?
對於未知蜘蛛或者爬蟲。它的用途對網站來說可能是好的,也可能是壞的,這取決於它是什麼。所以說,這需要站長進一步分析判斷這些尚不明確的爬蟲行為,再作最終決定。
但,根據以往的經驗,未宣告行為目的及未命名的蜘蛛爬蟲,通常都有不可告人的祕密,我們理應對其行為進行控制,比如攔截。
通過Robots.txt攔截
您可以通過在網站的 robots.txt 中設定使用者代理訪問規則來遮蔽 umich.edu crawler 或限制其訪問許可權。我們建議安裝 Spider Analyser
外掛,以檢查它是否真正遵循這些規則。
User-agent: umich.edu crawler
# robots.txt
# 下列程式碼一般情況可以攔截該代理
User-agent: umich.edu crawler
Disallow: /
# robots.txt
# 下列程式碼一般情況可以攔截該代理
User-agent: umich.edu crawler
Disallow: /
您無需手動執行此操作,可通過我們的 Wordpress 外掛 Spider Analyser 來攔截不必要的蜘蛛或者爬蟲。