能否在robots.txt檔案中設定爬蟲的HTTP方法?

在 robots.txt 檔案中,可以使用 Fetch-directive 指令來指定爬蟲使用的 HTTP 方法進行抓取。例如,” Fetch-directive: get “將告訴爬蟲僅使用 GET 方法進行抓取。

Fetch-directive(也稱為 Fetch 指令)是一個用於控制搜尋引擎蜘蛛(爬蟲)在抓取網頁時的行為的指令。不同的搜尋引擎可能對 Fetch-directive 的支援程度有所不同。以下是一些常見搜尋引擎對 Fetch-directive 的支援情況:

支援 Fetch-directive 指令的搜尋引擎:

  1. Googlebot(谷歌搜尋引擎的爬蟲)
  2. Bingbot(必應搜尋引擎的爬蟲)
  3. YandexBot(Yandex搜尋引擎的爬蟲)
  4. Baiduspider(百度搜尋引擎的爬蟲)

不支援 Fetch-directive 指令的搜尋引擎:

  1. DuckDuckBot(DuckDuckGo搜尋引擎的爬蟲)
  2. EcosiaBot(Ecosia搜尋引擎的爬蟲)
  3. Sogou web spider(搜狗搜尋引擎的爬蟲)

請注意,支援或不支援 Fetch-directive 指令的搜尋引擎列表可能會隨時間變化,因此建議查閱各個搜尋引擎的官方文件或相關資源,以獲取最新的資訊和支援情況。

未能解決您的問題?

請提交 聯絡工單