uni-passau bot
uni-passau bot蜘蛛/爬蟲屬於搜尋引擎型別,由Universität Passau開發執行。您可以繼續閱讀下方資訊,以深入瞭解uni-passau bot基本資訊,使用者代理和訪問控制等。
基本資訊
uni-passau bot的基本資訊如下表。但部分不是很規範的蜘蛛和爬蟲,可能存在資訊不明的情況。
- 蜘蛛/爬蟲名稱
- uni-passau bot
- 型別
- 搜尋引擎
- 開發商
-
Universität Passau
- 當前狀態
-
活動
使用者代理
關於uni-passau bot蜘蛛或者爬蟲的使用者代理字串,IP地址和伺服器,所在地等資訊如下表格所示:
hgfAlphaXCrawl/0.1
-
hgfAlphaXCrawl/0.1
-
RobotsTxtFetcher/1.3
- 使用者代理字串
- hgfAlphaXCrawl/0.1 (+https://www.fim.uni-passau.de/data-science/forschung/open-search)
- 首次出現
- 2022-07-31 17:54:33
- 最後出現
- 2022-08-02 06:50:03
- 遵循robots.txt
- 未知
- 來源
-
IP地址(1) |
伺服器名稱 |
所屬國家 |
195.113.175.41 |
? |
CZ |
- 使用者代理字串
- hgfAlphaXCrawl/0.1 (+https://www.fim.uni-passau.de/data-science/forschung/open-search) RobotsTxtFetcher/1.3
- 首次出現
- 2022-07-31 09:33:24
- 最後出現
- 2022-08-02 06:50:03
- 遵循robots.txt
- 未知
- 來源
-
IP地址(1) |
伺服器名稱 |
所屬國家 |
195.113.175.41 |
? |
CZ |
訪問控制
瞭解如何控制uni-passau bot訪問許可權,避免uni-passau bot抓取行為不當。
是否攔截uni-passau bot?
一般不要攔截。搜尋引擎爬蟲為搜尋引擎提供動力,是使用者發現您網站的有效途徑。事實上,攔截搜尋引擎爬蟲可能會嚴重減少網站的自然流量。
通過Robots.txt攔截
您可以通過在網站的 robots.txt 中設定使用者代理訪問規則來遮蔽 uni-passau bot 或限制其訪問許可權。我們建議安裝 Spider Analyser
外掛,以檢查它是否真正遵循這些規則。
User-agent: uni-passau bot
# robots.txt
# 下列程式碼一般情況可以攔截該代理
User-agent: uni-passau bot
Disallow: /
# robots.txt
# 下列程式碼一般情況可以攔截該代理
User-agent: uni-passau bot
Disallow: /
您無需手動執行此操作,可通過我們的 Wordpress 外掛 Spider Analyser 來攔截不必要的蜘蛛或者爬蟲。
更多資訊
作為建立開放索引研究的一部分,Passau大學正在與外部合作伙伴進行爬行實驗,以找到合適的爬蟲。除了分析技術特徵外,還將收集統計資料,例如網頁的平均大小、網頁淨文字內容的大小和網頁之間的連線結構(例如每頁的出站連結數)。