Semantic Health Web Crawler
Semantic Health Web Crawler蜘蛛/爬虫属于其他类型,由Heilbronn University开发运行。您可以继续阅读下方信息,以深入了解Semantic Health Web Crawler基本信息,用户代理和访问控制等。
基本信息
Semantic Health Web Crawler的基本信息如下表。但部分不是很规范的蜘蛛和爬虫,可能存在信息不明的情况。
- 蜘蛛/爬虫名称
- Semantic Health Web Crawler
- 类型
- 其他
- 开发商
-
Heilbronn University
- 当前状态
-
活动
用户代理
关于Semantic Health Web Crawler蜘蛛或者爬虫的用户代理字符串,IP地址和服务器,所在地等信息如下表格所示:
Semantic Health Web Crawler
-
Semantic Health Web Crawler
- 用户代理字符串
- Semantic Health Web Crawler - Research Project - Dept. of Medical Informatics - Heilbronn University
- 首次出现
- 2015-12-16 09:15:00
- 最后出现
- 2015-12-15 18:27:37
- 遵循robots.txt
- 未知
- 来源
-
IP地址(1) |
服务器名称 |
所属国家 |
141.7.43.59 |
shc-rn-59.gecko.hs-heilbronn.de |
DE |
访问控制
了解如何控制Semantic Health Web Crawler访问权限,避免Semantic Health Web Crawler抓取行为不当。
是否拦截Semantic Health Web Crawler?
对于未知蜘蛛或者爬虫。它的用途对网站来说可能是好的,也可能是坏的,这取决于它是什么。所以说,这需要站长进一步分析判断这些尚不明确的爬虫行为,再作最终决定。
但,根据以往的经验,未声明行为目的及未命名的蜘蛛爬虫,通常都有不可告人的秘密,我们理应对其行为进行控制,比如拦截。
通过Robots.txt拦截
您可以通过在网站的 robots.txt 中设置用户代理访问规则来屏蔽 Semantic Health Web Crawler 或限制其访问权限。我们建议安装 Spider Analyser
插件,以检查它是否真正遵循这些规则。
User-agent: Semantic Health Web Crawler
# robots.txt
# 下列代码一般情况可以拦截该代理
User-agent: Semantic Health Web Crawler
Disallow: /
# robots.txt
# 下列代码一般情况可以拦截该代理
User-agent: Semantic Health Web Crawler
Disallow: /
您无需手动执行此操作,可通过我们的 Wordpress 插件 Spider Analyser 来拦截不必要的蜘蛛或者爬虫。