Swisscows Crawler
Swisscows Crawler蜘蛛/爬虫属于搜索引擎类型,由Swisscows AG开发运行。您可以继续阅读下方信息,以深入了解Swisscows Crawler基本信息,用户代理和访问控制等。
基本信息
Swisscows Crawler的基本信息如下表。但部分不是很规范的蜘蛛和爬虫,可能存在信息不明的情况。
- 蜘蛛/爬虫名称
- Swisscows Crawler
- 类型
- 搜索引擎
- 开发商
-
Swisscows AG
- 当前状态
-
活动
用户代理
关于Swisscows Crawler蜘蛛或者爬虫的用户代理字符串,IP地址和服务器,所在地等信息如下表格所示:
Swisscows Images
-
Swisscows Images
-
Swisscows Favicons
- 用户代理字符串
- Swisscows Images
- 首次出现
- 2024-01-28 05:46:55
- 最后出现
- 2025-01-12 07:07:52
- 遵循robots.txt
- 未知
- 来源
-
IP地址(1) |
服务器名称 |
所属国家 |
146.185.78.169 |
146-185-78-x.cust.sak.ch |
CH |
- 用户代理字符串
- Swisscows Favicons
- 首次出现
- 2023-11-11 17:30:37
- 最后出现
- 2024-07-12 05:32:39
- 遵循robots.txt
- 未知
- 来源
-
IP地址(1) |
服务器名称 |
所属国家 |
146.185.78.169 |
146-185-78-x.cust.sak.ch |
CH |
访问控制
了解如何控制Swisscows Crawler访问权限,避免Swisscows Crawler抓取行为不当。
是否拦截Swisscows Crawler?
一般不要拦截。搜索引擎爬虫为搜索引擎提供动力,是用户发现您网站的有效途径。事实上,拦截搜索引擎爬虫可能会严重减少网站的自然流量。
通过Robots.txt拦截
您可以通过在网站的 robots.txt 中设置用户代理访问规则来屏蔽 Swisscows Crawler 或限制其访问权限。我们建议安装 Spider Analyser
插件,以检查它是否真正遵循这些规则。
User-agent: Swisscows Crawler
# robots.txt
# 下列代码一般情况可以拦截该代理
User-agent: Swisscows Crawler
Disallow: /
# robots.txt
# 下列代码一般情况可以拦截该代理
User-agent: Swisscows Crawler
Disallow: /
您无需手动执行此操作,可通过我们的 Wordpress 插件 Spider Analyser 来拦截不必要的蜘蛛或者爬虫。