uni-passau bot
uni-passau bot蜘蛛/爬虫属于搜索引擎类型,由Universität Passau开发运行。您可以继续阅读下方信息,以深入了解uni-passau bot基本信息,用户代理和访问控制等。
基本信息
uni-passau bot的基本信息如下表。但部分不是很规范的蜘蛛和爬虫,可能存在信息不明的情况。
- 蜘蛛/爬虫名称
- uni-passau bot
- 类型
- 搜索引擎
- 开发商
-
Universität Passau
- 当前状态
-
活动
用户代理
关于uni-passau bot蜘蛛或者爬虫的用户代理字符串,IP地址和服务器,所在地等信息如下表格所示:
hgfAlphaXCrawl/0.1
-
hgfAlphaXCrawl/0.1
-
RobotsTxtFetcher/1.3
- 用户代理字符串
- hgfAlphaXCrawl/0.1 (+https://www.fim.uni-passau.de/data-science/forschung/open-search)
- 首次出现
- 2022-07-31 17:54:33
- 最后出现
- 2022-08-02 06:50:03
- 遵循robots.txt
- 未知
- 来源
-
IP地址(1) |
服务器名称 |
所属国家 |
195.113.175.41 |
? |
CZ |
- 用户代理字符串
- hgfAlphaXCrawl/0.1 (+https://www.fim.uni-passau.de/data-science/forschung/open-search) RobotsTxtFetcher/1.3
- 首次出现
- 2022-07-31 09:33:24
- 最后出现
- 2022-08-02 06:50:03
- 遵循robots.txt
- 未知
- 来源
-
IP地址(1) |
服务器名称 |
所属国家 |
195.113.175.41 |
? |
CZ |
访问控制
了解如何控制uni-passau bot访问权限,避免uni-passau bot抓取行为不当。
是否拦截uni-passau bot?
一般不要拦截。搜索引擎爬虫为搜索引擎提供动力,是用户发现您网站的有效途径。事实上,拦截搜索引擎爬虫可能会严重减少网站的自然流量。
通过Robots.txt拦截
您可以通过在网站的 robots.txt 中设置用户代理访问规则来屏蔽 uni-passau bot 或限制其访问权限。我们建议安装 Spider Analyser
插件,以检查它是否真正遵循这些规则。
User-agent: uni-passau bot
# robots.txt
# 下列代码一般情况可以拦截该代理
User-agent: uni-passau bot
Disallow: /
# robots.txt
# 下列代码一般情况可以拦截该代理
User-agent: uni-passau bot
Disallow: /
您无需手动执行此操作,可通过我们的 Wordpress 插件 Spider Analyser 来拦截不必要的蜘蛛或者爬虫。
更多信息
作为创建开放索引研究的一部分,Passau大学正在与外部合作伙伴进行爬行实验,以找到合适的爬虫。除了分析技术特征外,还将收集统计数据,例如网页的平均大小、网页净文本内容的大小和网页之间的连接结构(例如每页的出站链接数)。