ownCloud Crawler
ownCloud Crawler蜘蛛/爬蟲屬於資訊流型別,由ownCloud GmbH開發執行。您可以繼續閱讀下方資訊,以深入瞭解ownCloud Crawler基本資訊,使用者代理和訪問控制等。
基本資訊
ownCloud Crawler的基本資訊如下表。但部分不是很規範的蜘蛛和爬蟲,可能存在資訊不明的情況。
- 蜘蛛/爬蟲名稱
- ownCloud Crawler
- 型別
- 資訊流
- 開發商
-
ownCloud GmbH
- 當前狀態
-
無效
使用者代理
關於ownCloud Crawler蜘蛛或者爬蟲的使用者代理字串,IP地址和伺服器,所在地等資訊如下表格所示:
ownCloud News/5.3.6
-
ownCloud News/5.3.6
-
ownCloud Server Crawler
- 使用者代理字串
- ownCloud News/5.3.6 (+https://owncloud.org/; 1 subscriber;)
- 首次出現
- 2015-09-09 15:27:20
- 最後出現
- 2015-09-09 15:34:42
- 遵循robots.txt
- 否
- 來源
-
IP地址(2) |
伺服器名稱 |
所屬國家 |
176.9.48.186 |
demo.owncloud.org |
DE |
- 使用者代理字串
- ownCloud Server Crawler
- 首次出現
- 2013-06-12 09:41:37
- 最後出現
- 2015-06-12 09:41:38
- 遵循robots.txt
- 未知
- 來源
-
IP地址(1) |
伺服器名稱 |
所屬國家 |
176.9.48.186 |
demo.owncloud.org |
DE |
訪問控制
瞭解如何控制ownCloud Crawler訪問許可權,避免ownCloud Crawler抓取行為不當。
是否攔截ownCloud Crawler?
通常不需要。除非您不希望資訊流網站或者APP對您的網站內容進行抓取,網站也不提供Feed訂閱服務,則可以考慮攔截此型別爬蟲。
通過Robots.txt攔截
您可以通過在網站的 robots.txt 中設定使用者代理訪問規則來遮蔽 ownCloud Crawler 或限制其訪問許可權。我們建議安裝 Spider Analyser
外掛,以檢查它是否真正遵循這些規則。
User-agent: ownCloud Crawler
# robots.txt
# 下列程式碼一般情況可以攔截該代理
User-agent: ownCloud Crawler
Disallow: /
# robots.txt
# 下列程式碼一般情況可以攔截該代理
User-agent: ownCloud Crawler
Disallow: /
您無需手動執行此操作,可通過我們的 Wordpress 外掛 Spider Analyser 來攔截不必要的蜘蛛或者爬蟲。