MediaWiki crawler
MediaWiki crawler蜘蛛/爬蟲屬於其他型別,由Wikimedia Foundation Inc開發執行。您可以繼續閱讀下方資訊,以深入瞭解MediaWiki crawler基本資訊,使用者代理和訪問控制等。
基本資訊
MediaWiki crawler的基本資訊如下表。但部分不是很規範的蜘蛛和爬蟲,可能存在資訊不明的情況。
- 蜘蛛/爬蟲名稱
- MediaWiki crawler
- 型別
- 其他
- 開發商
-
Wikimedia Foundation Inc
- 當前狀態
-
活動
使用者代理
關於MediaWiki crawler蜘蛛或者爬蟲的使用者代理字串,IP地址和伺服器,所在地等資訊如下表格所示:
Pywikibot/9.0.0.dev0
-
Pywikibot/9.0.0.dev0
-
Pywikibot/8.0.0.dev0
-
Pywikibot/7.3.0.dev0
-
Pywikibot/7.0.0.dev0
-
Pywikibot/6.2.0.dev0
- 使用者代理字串
- wlc3 Pywikibot/9.0.0.dev0 (g18371) requests/2.31.0 Python/3.10.12.final.0
- 首次出現
- 2024-01-19 03:02:05
- 最後出現
- 2024-01-19 03:02:05
- 遵循robots.txt
- 未知
- 來源
-
IP地址(1) |
伺服器名稱 |
所屬國家 |
185.102.189.20 |
host-185-102-189-20.jmdi.pl |
PL |
- 使用者代理字串
- wlc3 Pywikibot/8.0.0.dev0 (g17442) requests/2.28.1 Python/3.10.6.final.0
- 首次出現
- 2023-01-04 22:21:24
- 最後出現
- 2023-01-04 22:21:24
- 遵循robots.txt
- 未知
- 來源
-
IP地址(1) |
伺服器名稱 |
所屬國家 |
185.102.189.20 |
host-185-102-189-20.jmdi.pl |
PL |
- 使用者代理字串
- wlc3 Pywikibot/7.3.0.dev0 (g16522) requests/2.26.0 Python/3.8.10.final.0
- 首次出現
- 2022-05-10 23:06:16
- 最後出現
- 2022-05-10 23:06:16
- 遵循robots.txt
- 未知
- 來源
-
IP地址(1) |
伺服器名稱 |
所屬國家 |
185.102.189.20 |
host-185-102-189-20.jmdi.pl |
PL |
- 使用者代理字串
- wlc3 Pywikibot/7.0.0.dev0 (g15566) requests/2.26.0 Python/3.8.10.final.0
- 首次出現
- 2021-10-28 19:23:30
- 最後出現
- 2021-10-29 11:44:11
- 遵循robots.txt
- 未知
- 來源
-
IP地址(1) |
伺服器名稱 |
所屬國家 |
185.102.189.20 |
host-185-102-189-20.jmdi.pl |
PL |
- 使用者代理字串
- wlc3 Pywikibot/6.2.0.dev0 (g14905) requests/2.25.1 Python/3.8.5.final.0
- 首次出現
- 2021-05-25 03:31:39
- 最後出現
- 2021-05-25 03:31:39
- 遵循robots.txt
- 未知
- 來源
-
IP地址(1) |
伺服器名稱 |
所屬國家 |
185.102.189.20 |
host-185-102-189-20.jmdi.pl |
PL |
訪問控制
瞭解如何控制MediaWiki crawler訪問許可權,避免MediaWiki crawler抓取行為不當。
是否攔截MediaWiki crawler?
對於未知蜘蛛或者爬蟲。它的用途對網站來說可能是好的,也可能是壞的,這取決於它是什麼。所以說,這需要站長進一步分析判斷這些尚不明確的爬蟲行為,再作最終決定。
但,根據以往的經驗,未宣告行為目的及未命名的蜘蛛爬蟲,通常都有不可告人的祕密,我們理應對其行為進行控制,比如攔截。
通過Robots.txt攔截
您可以通過在網站的 robots.txt 中設定使用者代理訪問規則來遮蔽 MediaWiki crawler 或限制其訪問許可權。我們建議安裝 Spider Analyser
外掛,以檢查它是否真正遵循這些規則。
User-agent: MediaWiki crawler
# robots.txt
# 下列程式碼一般情況可以攔截該代理
User-agent: MediaWiki crawler
Disallow: /
# robots.txt
# 下列程式碼一般情況可以攔截該代理
User-agent: MediaWiki crawler
Disallow: /
您無需手動執行此操作,可通過我們的 Wordpress 外掛 Spider Analyser 來攔截不必要的蜘蛛或者爬蟲。