Swisscows Crawler
Swisscows Crawler蜘蛛/爬蟲屬於搜尋引擎型別,由Swisscows AG開發執行。您可以繼續閱讀下方資訊,以深入瞭解Swisscows Crawler基本資訊,使用者代理和訪問控制等。
基本資訊
Swisscows Crawler的基本資訊如下表。但部分不是很規範的蜘蛛和爬蟲,可能存在資訊不明的情況。
- 蜘蛛/爬蟲名稱
- Swisscows Crawler
- 型別
- 搜尋引擎
- 開發商
-
Swisscows AG
- 當前狀態
-
活動
使用者代理
關於Swisscows Crawler蜘蛛或者爬蟲的使用者代理字串,IP地址和伺服器,所在地等資訊如下表格所示:
Swisscows Images
-
Swisscows Images
-
Swisscows Favicons
- 使用者代理字串
- Swisscows Images
- 首次出現
- 2024-01-28 05:46:55
- 最後出現
- 2025-01-12 07:07:52
- 遵循robots.txt
- 未知
- 來源
-
IP地址(1) |
伺服器名稱 |
所屬國家 |
146.185.78.169 |
146-185-78-x.cust.sak.ch |
CH |
- 使用者代理字串
- Swisscows Favicons
- 首次出現
- 2023-11-11 17:30:37
- 最後出現
- 2024-07-12 05:32:39
- 遵循robots.txt
- 未知
- 來源
-
IP地址(1) |
伺服器名稱 |
所屬國家 |
146.185.78.169 |
146-185-78-x.cust.sak.ch |
CH |
訪問控制
瞭解如何控制Swisscows Crawler訪問許可權,避免Swisscows Crawler抓取行為不當。
是否攔截Swisscows Crawler?
一般不要攔截。搜尋引擎爬蟲為搜尋引擎提供動力,是使用者發現您網站的有效途徑。事實上,攔截搜尋引擎爬蟲可能會嚴重減少網站的自然流量。
通過Robots.txt攔截
您可以通過在網站的 robots.txt 中設定使用者代理訪問規則來遮蔽 Swisscows Crawler 或限制其訪問許可權。我們建議安裝 Spider Analyser
外掛,以檢查它是否真正遵循這些規則。
User-agent: Swisscows Crawler
# robots.txt
# 下列程式碼一般情況可以攔截該代理
User-agent: Swisscows Crawler
Disallow: /
# robots.txt
# 下列程式碼一般情況可以攔截該代理
User-agent: Swisscows Crawler
Disallow: /
您無需手動執行此操作,可通過我們的 Wordpress 外掛 Spider Analyser 來攔截不必要的蜘蛛或者爬蟲。