
如何做搜尋引擎蜘蛛日誌分析
搜尋引擎蜘蛛日誌檔案是一種非常強大但未被站長充分利用的檔案,分析它可以獲取有關每個搜尋引擎如何爬取網站內容的相關資訊點,及檢視搜尋引擎蜘蛛在一段時間內的行為。
IP地址(2) | 伺服器名稱 | 所屬國家 |
---|---|---|
116.203.129.16 | node-116-203-129-16.pool.cron-job.org | DE |
195.201.26.157 | cron-job.org | DE |
可能不需要。工具型別爬蟲通常為網站所有者使用此類工具對網站進行相關服務請求才會出現。當然,實際情況需站長判斷後再作決定。
您可以通過在網站的 robots.txt 中設定使用者代理訪問規則來遮蔽 cron-job.org 或限制其訪問許可權。我們建議安裝 Spider Analyser 外掛,以檢查它是否真正遵循這些規則。
# robots.txt # 下列程式碼一般情況可以攔截該代理 User-agent: cron-job.org Disallow: /
您無需手動執行此操作,可通過我們的 Wordpress 外掛 Spider Analyser 來攔截不必要的蜘蛛或者爬蟲。
cron-job.org是一項免費服務,用於根據可定製的時間表獲取網站/URL,例如,自動執行指令碼控制的任務,如備份建立或後臺計算。
cron-job.org的使用者只能建立呼叫他們擁有的或有許可權使用我們服務的網站的cronjob。
如果你的網站未經你的許可被cron-job.org訪問/獲取,請使用濫用表格向cron-job.org報告這一事件。cron-job.org將調查此案並禁用相應的cronjob。